To see the other types of publications on this topic, follow the link: Négation en programme logique.

Dissertations / Theses on the topic 'Négation en programme logique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 46 dissertations / theses for your research on the topic 'Négation en programme logique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bidoit-Tollu, Nicole. "Bases de données déductives : négation et logique des défauts." Paris 11, 1989. http://www.theses.fr/1989PA112387.

Full text
Abstract:
Cette thèse présente une étude des problèmes liés à l'introduction de la négation dans les programmes de règles pour bases de données ou programmes logiques. L'introduction de la négation est requise pour augmenter la puissance d'expression de ces langages. L'utilisation de la négation en base de données et en programmation logique ne peut être formalisée par la négation de la logique du premier ordre. La définition de la sémantique de la négation, sous forme déclarative, est le problème central abordé dans cette thèse. Cette thèse propose une approche fondée sur la logique des défauts qui appartient au groupe des logiques non monotones dont l'objet est de fournir un formalisme du raisonnement de sens commun. Le postulat du monde ferme est un cas particulier de raisonnement par défaut et la logique des défauts offre un formalisme adéquat pour définir la sémantique déclarative de la négation. La présence d’écursion négative dans un programme logique peut ne pas permettre d'associer une sémantique à ce programme. La classe bien connue des programmes stratifiés est considérée dans cette étude. Cette classe, trop respective parce qu'excluant certains programmes simples dont la sémantique est intuitivement claire, est étendue à la classe des programmes effectivement stratifiés. Un effort particulier est dédié à la comparaison de l'approche logique des défauts avec d'autres approches et cette thèse comprend un état de l'art du domaine ou les différentes approches examinées sont présentées de la façon la plus uniforme possible
APA, Harvard, Vancouver, ISO, and other styles
2

Marquez, Alonso. "La résolution hiérarchisée, une solution au problème de la négation en programmation logique." Paris 11, 1988. http://www.theses.fr/1988PA112167.

Full text
Abstract:
L'objectif de cette thèse est d'étendre à la logique des prélicats du premier ordre la notion de sémantique procédurale existante dans le langage prolog. Ceci permet d'augmenter l'efficacité et la clarté de la programmation en logique du premier ordre
APA, Harvard, Vancouver, ISO, and other styles
3

Liogier, Karine. "Négation, contraintes et programmation logique." Aix-Marseille 2, 1996. http://www.theses.fr/1996AIX22081.

Full text
Abstract:
Le but de ce travail est d'etudier deux problemes lies a l'utilisation de la negation en programmation logique avec contraintes: celui ou la negation apparait dans les contraintes et celui ou elle apparait dans le corps des clauses des programmes consideres. Le premier probleme consiste a montrer comment il est possible d'etendre raisonnablement un algorithme de resolution, permettant de mettre des contraintes positives sous forme canonique, aux contraintes niees. Pour cela, nous adaptons le processus deja utilise et nous considerons par ailleurs un operateur de recouvrement adequat. Nous enoncons des conditions suffisantes qui nous permettent alors de definir la forme canonique etendue d'un systeme general de contraintes avec negation. En ce qui concerne le second probleme, nous proposons un nouveau schema de negation constructive, pour les programmes generaux avec contraintes, base sur une modelisation theorique. En outre, nous associons a ces programmes une nouvelle semantique declarative, l'axiomatique interne, qui nous permet d'obtenir un theoreme de completude en deduction classique ordinaire, c'est-a-dire bivaluee
APA, Harvard, Vancouver, ISO, and other styles
4

Gil, Bernard. "Intériorisation de la négation en programmation logique." Aix-Marseille 2, 1991. http://www.theses.fr/1991AIX22033.

Full text
Abstract:
Dans cette etude on se propose de fournir une nouvelle facon de considerer la negation dans les programmes logiques. Avec la perspective de programmer de maniere homogene des reponses pour les requetes positives et negatives, on introduit une technique de transformation de programmes qui synthetise la definition d'un nouveau predicat p pour chaque predicat p defini dans le programme. La signification attendue de p est grossierement la negation de p. Jean-paul delahaye a reactualise cette technique introduite par b. Meltzer dans les annees soixante, pour donner une semantique declarative des programmes positifs, qui lui permet une meilleure approche des interpreteurs prolog standard. Dans la continuite de ces travaux, on etend l'operation dite de dedoublement des predicats aux programmes generaux. La semantique declarative que l'on definit alors, appelee extension complete, a des proprietes analogues aux semantiques trivaluees introduites par kunen et fitting, en conservant toutefois l'avantage majeur de rester dans le cadre de la logique classique. On prouve un theoreme de completude forte de la sldnf-resolution pour la classe des programmes permis. La semantique denotationnelle du point fixe associee a cette transformation presente des particularites interessantes, et ameliore les proprietes de celle obtenue par clark
APA, Harvard, Vancouver, ISO, and other styles
5

Béziau, Jean-Yves. "Recherches sur la logique universelle (excessivité, négation, séquents)." Paris 7, 1995. http://www.theses.fr/1995PA077101.

Full text
Abstract:
Les formes abstraites de la complétude sont étudiées. On montre que la sémantique bivalente constituée par l'ensemble des fonctions caractéristiques des théories excessives est une sémantique complète minimale pour toute logique normale compacte. Au niveau de la théorie négation, on montre que dans la logique intuitionniste il y a des théories excessives non maximales et on développe une nouvelle logique paraconsistante dans laquelle on peut définir un relation de congruence, représentable par des algèbres munies d'opérateurs non monotones. On prouve que les théories excessives respectent les règles des systèmes de séquents structurellement standards. On applique ce résultat pour axiomatiser cette nouvelle logique paraconsistante pour laquelle on prouve l'élimination des coupures. On développe ensuite une théorie des connecteurs et on prouve un Hauptsatz généralisé.
APA, Harvard, Vancouver, ISO, and other styles
6

Tahiri, Hassan. "La dynamique de la négation et la logique avec inconsistances : quelques conséquences scientifiques et épistémologiques : vers un rapprochement entre la philosophie et l'histoire des sciences." Lille 3, 2005. http://www.theses.fr/2005LIL30039.

Full text
Abstract:
Les fameux théorèmes d'incomplétude de Gödel ont non seulement tenu en échec le programme de Hilbert mais aussi mis en évidence la limite de la logique classique qui trivialise tout système qui contient une contradiction. D'autre part, le critère de consistance n'a pas été uniquement pensé comme une hypothèse des systèmes logiques. Son caractère paradigmatique présumé semble envahir tous les types de raisonnement rationnel. La critique de ces deux manières de comprendre la consistance a conduit au développement de nouvelles méthodes pour traiter les systèmes qui contiennent une inconsistance. La méthode adoptée par la logique non-monotonique qui s'est développée au sein de l'Intelligence Artificielle, consiste à autoriser l'inférence d'une conclusion à titre provisoire quitte à la retirer ultérieurement quand de nouvelles informations deviennent disponibles. Nous avons étudié dans un premier temps les différents systèmes formels de l'argumentation défaisable. Notre étude révèle que ces systèmes ont été largement développés à partir des exemples ad hoc inventés pour les besoins de la formalisation. Cette démarche a donné lieu à la formation d'un appareil conceptuel riche et fécond. L'objectif de cette thèse est non seulement de présenter une analyse approfondie des systèmes formels de l'argumentation défaisable mais surtout de contribuer à enrichir le dispositif technique mis en œuvre dans le processus de formalisation en adoptant une démarche inverse. C'est sous cet angle qu'il faut voir notre tentative, la première dans son genre, d'appliquer les concepts existants de la logique pour l'argumentation défaisable à l'histoire des sciences et de la philosophie. On peut se demander toutefois si une telle application est possible : ne sommes-nous pas en train de rapprocher deux disciplines qui semblent avoir peu de choses en commun ? En fait, si nous examinons attentivement l'histoire des sciences, nous nous apercevons que les contreverses représentent le moteur de son développement. Nous trouvons dans la contreverse la notion qui nous permettra d'établir le lien entre la logique non-monotonique et l'histoire des sciences d'une part et entre la philosophie et l'histoire des sciences d'autre part. Nous avons analysé en effet un certain nombre de contreverses portant sur les fondements des mathématiques de Kroncker à Poincaré. Cette analyse nous a permis de faire l'inventaire de l'ensemble des arguments invoqués par les protagonistes. C'est David Hilbert qui nous a servi de fil directeur étant donné qu'il était témoin de tous les événements qui se sont déroulés pendant cette période cruciale de l'histoire des mathématiques. La présentation dialogique des différentes contreverses, en termes d'arguments et de contre-arguments, a débouché sur la construction des systèmes formels qui leur correspondent. Nous avons en particulier décelé une évolution dans la nature des contreverses elles-mêmes : de la contreverse sur l'emploi de l'infini actuel dans les preuves, qui était à l'origine des contreverses mathématiques, à la contreverse sur la preuve elle-même. La charge de la preuve apparaît à cet égard comme un critère semi-formel crucial pour capturer la subtilité des différents niveaux d'argumentation, et décisif pour déterminer l'issue du conflit. Notre nouvelle approche, qui consiste à employer la non-monotonie comme un instrument dans l'étude des controverses, a jeté une nouvelle lumière sur la pensée mathématique de Hilbert. Nous pensons que l'étude de dialogues concrets issus de l'histoire des sciences et de la philosophie permet d'une part d'enrichir la logique de l'argumentation par la découverte de nouvelles formes de raisonnement et d'autre part de contribuer, à travers la notion de controverse, à une meilleure compréhension du développement de l'histoire des sciences et de la philosophie
APA, Harvard, Vancouver, ISO, and other styles
7

Lee, Yun Min-Hea. "Sur la négation en français et en coréen (recherche sémantico-logique)." Paris 4, 1992. http://www.theses.fr/1992PA040159.

Full text
Abstract:
Dans notre étude sur la négation, nous essayons de définir les sens et les relations de vérité qui unissent les phrases négatives. En y appliquant la théorie sémantico-logique développée par R. Martin. Ainsi, cette recherche consiste principalement à exposer une des fonctions d'une théorie sémantique, formalisée et explicitée à travers les modèles logiques possibles des phrases négatives en coréen, en faisant référence aux phrases négatives comparables en français. En appelant à cette tentative les notions de mondes possibles et d'univers de croyance, nous pouvons réaliser pertinemment l'analyse sémantique des phrases négatives du français et du coréen, malgré que ces deux langues soient typologiquement et éloignées l'une de l'autre
In our study of the negation, we try to define the senses and the relations of truth which unite together the negative phrases according to the semantic-logical theory developed by r. Martin. Thus this research consist principally in showing one of the functions in the semantic theory formalized and made clear through the possible logical models of phrases in Korean, referring to the comparable negative phrases in French. In this try, with the help of the notions of possible world and belief world, we can realize pertinently the semantic analysis of the negative phrases in French and in Korean even though these two languages are typologically so far from each other
APA, Harvard, Vancouver, ISO, and other styles
8

Bouzigue, Stéphanie. "Interprétation de la négation et contexte : une étude développementale." Aix-Marseille 1, 2000. http://www.theses.fr/2000AIX10069.

Full text
Abstract:
Ce travail est centre sur l'idee que l'interpretation de la negation est dependante, a tout age, de la prise d'indices contextuels vehicules par le langage ordinaire. Les travaux de akiyama et guillory (1983) suggerent qu'au dela de 6 ans, les enfants anglophones prelevent des indices pour orienter leur choix vers une interpretation de la negation plutot logique ou plutot conversationnelle. Pour montrer la coexistence de systemes de reponses opposes, deux situations d'enonciation ont ete creees : l'une "logique", l'autre "conversationnelle". La premiere est une tache ou les sujets doivent decider si une phrase est congruente ou incongruente par rapport a l'image qui l'accompagne. La seconde reprend la tache precedente en introduisant des indices conversationnels permettant la reconnaissance de l'intention communicative (visee illocutoire des actes assertifs ou directifs, proposition a juger integree ou non dans un enchainement discursif). Les deux situations ont ete proposees dans une version ecrite et une version orale. La nature des jugements et les temps de reponses sont enregistres. L'etude a ete realisee aupres d'enfants de 7 a 10 ans et d'adultes francophones. Les resultats montrent que les enfants les plus jeunes en presence d'indices conversationnels ne sont pas toujours capables de choisir le systeme de reponse logique. Pour les enfants les plus ages et les adultes, la prise en compte des indices conversationnels suscite une hesitation quant au choix du systeme de reponse qui se manifeste sur la latence des jugements. Les resultats suggerent qu'au cours du developpement, bien que la capacite permettant de resoudre logiquement la tache s'affermisse, les indices conversationnels demeurent toujours potentiellement efficients.
APA, Harvard, Vancouver, ISO, and other styles
9

Frangne, Pierre-Henry. "Le statut de la négation dans l'art symboliste français : les modèles philosophiques du symbolisme." Lille 3, 2002. http://www.theses.fr/2002LIL30017.

Full text
Abstract:
La thèse est une interprétation philosophique du symbolisme français de la fin du XIXe siècle. A la question "Qu'est-ce qui fait l'unité de ce mouvement artistique?", elle répond : non une théorie unifiée du symbole, mais une théorie de la négation. Cette dernière apparaît sous une triple forme : comme opération logique d'abstraction et de purification ; comme sentiment existentiel malheureux ; comme principe métaphysique (Néant, Rien, Mort). Ces trois figures engendrent la négation comme valeur et comme exigence : celle d'abolir et de manifester l'art et le réel au sein d'une inconsistance fondamentale. Utilisant trois modèles philosophiques principaux (Platon, Schopenhauer, Hegel) afin d'élaborer sa métaphysique et son ontologie négatives, le symbolisme produit différents rouages du philosophique et de l'artistique : au philosophème d'un néoplatonisme surplombant et d'un schopenhauerianisme nourrissant, succède une réelle philosohie symboliste au travail chez Mallarmé
APA, Harvard, Vancouver, ISO, and other styles
10

Amsili, Pascal. "Calcul de la négation temporelle en français : le cas du terme présuppositionnel "ne... plus"." Toulouse 3, 1994. http://www.theses.fr/1994TOU30068.

Full text
Abstract:
Le travail presente dans cette these se situe dans le domaine de la semantique computationnelle, domaine qui met a contribution les techniques de l'intelligence artificielle, les outils formels de la logique et les donnees et methodes de la linguistique. On s'interesse dans ce travail aux phenomenes logico-semantiques induits par l'emploi conjoint dans le langage naturel des concepts de temps et de negation. A cet effet, on mene une etude linguistique fine du terme presuppositionnel ne plus. Cette etude permet de degager diverses proprietes aspectuelles, temporelles, modales et pragmatiques de ce terme. On propose ensuite une representation de ces proprietes dans le cadre de semantique formelle que constitue la theorie des representations discursives (drt) (kamp 1981). Cette demarche permet de contribuer a l'evolution de cette theorie en la confrontant a des donnees linguistiques et representationnelles nouvelles. L'auteur presente ensuite une formalisation complete du processus de traitement semantique de cette locution: prenant en entree une representation syntaxique des enonces a traiter, ce processus mene a une representation semantique de ces enonces, dans laquelle se trouvent prises en compte leurs caracteristiques aspectuelles et presuppositionnelles, ce qui permet de calculer de facon complete l'information temporelle decrite par ces enonces. Ce processus est formalise au moyen d'un lambda-calcul inspire de celui propose par (asher 1993) et integre une formulation adaptee de l'algorithme de traitement dit anaphorique des presuppositions propose par (van der sandt 1992)
APA, Harvard, Vancouver, ISO, and other styles
11

Praz, Jean. "Négation et Diffraction de la volonté en éducation." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2025/document.

Full text
Abstract:
Entre 1880 et 1920, l’institution scolaire en France, les pédagogues et les professeurs de pédagogie, les enseignants dans leurs commentaires, les parents souvent inquiets en appellent à la volonté qui explique l’échec lorsqu’elle manque, qui galvanise les énergies si elle s’exerce et qui élève l’esprit quand elle est une ascèse. Au même moment, silencieusement parce que dans les marges de la communauté éducative, se forment les conditions même de la disparition de la volonté. L’Education nouvelle de congrès en congrès desserrera l’étau de cette volonté anémiante. Edouard Claparède invitera à dévolontariser la volonté. L’écho de Jean-Jacques Rousseau prônant l’épanouissement de l’enfance retrouvée légitimera cet effacement de la volonté. Et très vite de volonté il ne sera plus question. Comment expliquer cette contradiction entre cette omniprésence de la volonté et sa disparition ? Deux voies : l’une qui analysera la volonté même, l’autre qui décrira des pratiques éducatives où la volonté a joué un rôle ou celles d’où elle s’est retirée. L’enquête s’en tiendra au mot même de volonté dans ses composants sémantiques et dans l’histoire de sa traduction du grec ou du latin au français, puis au concept qui lui correspond : décomposition en traits, description de ses modalités et évaluation de sa teneur ontologique en dessinant la scène de toute action. Apparaîtront quatre dimensions de la volonté : effort, intention, décision et force, dimensions qui renverront aux vertus épistémiques, à la logique de l’action et à une conception de l’homme. Autrement dit, à quelle anthropologie la volonté comme force correspond-elle ? Et son éviction, quel sujet implique-t-elle ? D’autre part, si la volonté est intention et décision, ne relève-t-elle pas de la logique de l’action, comme son contraire l’acrasie ? Enfin, identifier volonté et effort, c’est redécouvrir les vertus épistémiques de la studiosité, de la curiosité, de l’attention, c’est dire ce qu’elles sont et comment les développer. Il est un dernier point qu’on ne saurait négliger : la volonté, ou du moins son contraire qu’est la paresse, met en jeu l’assise métaphysique de tout homme.Cette analyse sera corrélée, sinon à des pratiques éducatives puisque l’archive en est souvent absente, du moins à des théories ou à des comptes rendus de pratiques dans des genres littéraires le plus divers. D’abord, Célestin Freinet parce qu’il a critiqué la volonté comme instance morale, mais a gardé la notion d’effort s’appuyant peut-être sur le travail comme force d’émancipation, en tout cas comme émanation de la vie. Ensuite Piaget qui transforme la volonté en un contraire de la ligne de moindre résistance dans une conception évolutionniste, la naturalisant ainsi. Puis, Maine de Biran et Pestalozzi qui fondèrent une école presque ensemble, l’un faisant de l’effort le constituant premier de l’homme, l’autre hésitant entre l’épanouissement dévolontarisé et les nécessaires contraintes de toute action. Descartes aussi parce qu’il éduque la volonté conçue comme décision et qu’il la place au cœur de sa logique de sorte que l’homme se caractérise par la générosité qui est l’aptitude à poser des actes judicieux. Enfin, Dewey et Kilpatrick qui substitueront à la volonté l’intérêt s’opposant à l’éducation comme jeu et aux conceptions d’Herbart pour qui rien ne venait de l’élève et pour qui tout s’imposait de l’extérieur. Ce parcours s’achève par une mise en rapport de ces conceptions de la volonté et de certains traits d’anthropologie dans le but de dessiner une logique où le recours à la volonté correspond à un sujet vide et où l’effacement de la volonté suppose un sujet doté d’une intériorité qui ne demande qu’à s’exprimer. Puis, la fiction d’un compte rendu d’un congrès de philosophie de l’éducation permettra de reprendre les perspectives des uns et des autres et d’exprimer leur style de pensée. S'ouvrent alors les perspectives, dans une vision naturaliste, d'un sujet se constituant
Between 1880 and 1920 the academic institution of France, pedagogues and professors of pedagogy, teachers writing school reports and worried parents, have called upon the concept of will to explain failure where there is a lack of it, to galvanise energy where it is present and to raise the spirit in the field of asceticism. At the same time, the very conditions for the extinction of the concept of will have been growing quietly, at the margins of the education community. The Modern School Movement, from conference to conference, have been loosening the grip on this debilitating concept. Edouard Claparède suggests the ‘dewilling’ of will. The echo of Jean-Jacques Rousseau defending the blossoming of a rediscovered childhood, adds further weight to the idea of the fading out of the notion of will. How long before the question of will becomes no longer relevant? How can this contradiction between the omnipresent subject of will and its disappearance be explained? There are two approaches: the first analyses will itself, the second describes the educative practices where will plays a role or those where it is absent. The inquiry analyses the semantic components of the word, from its translation in Greek or Latin to French. Alongside this, it investigates the concept behind the word: its distinguishing features, the description of its modalities and its ontological constitution, describing the nature and the elements that make up an action. Four dimensions of will are identified: effort, intention, decision and strength. These dimensions clearly refer to epistemic virtues, the logic of action and the concept of what it is to be human. Put another way, to which anthropological system does will, as a strength, correspond? And in its absence, what idea of human behaviour do we conceive? On the other hand, if will is intention and decision, can it not be assumed that it comes from the logic of action, along with its opposite, akrasia. Finally, to identify will in terms of effort, is to revisit the epistemic virtues of studiousness, curiosity and attention, stating what they are and how to develop them. Another aspect that deserves consideration: will, or at least its opposite, laziness, calls into play the metaphysical bases underpinning human existence. This analysis correlates if not to the educative practices, archival material not often existing, at least to the theories or accounts of practices to be found in the myriad literary genres. Firstly, Célestin Freinet who criticised the idea of will as a moral value, but maintained the idea of effort, emphasing perhaps the notion of work as a liberating force, as an expression of life. Then Piaget, working within the school of evolutionary theory, who transforms will into an opposite of the path of least resistance. This is followed by Maine de Biran and Pestalozzi who almost founded a school together, the former identifying effort as the principal characteristic of man, the later hesitating between the blossoming of the individual that happens outside of will and the essential limits of any given action. Decartes conceives will as a decision which he places at the centre of his theory that man is characterised by generosity, which he defines as the ability to be reasonable. Lastly Dewey and Kilpatrick who substitute will for interest, opposing the idea of education as a game and Herbart’s idea that nothing comes from the student, everything is imposed from external sources. The journey finishes with a bringing together of the concepts of will and certain anthropological features, the aim of which is to draw upon logic where will is called upon in a situation of personal need or is eliminated, presuming that the individual’s inner life is left unexpressed. The imaginary reporting to a fictitious conference between the various educational philosophers would allow the sharing and reformulating of each other’s perspectives along with the investigation of their various styles of thought
APA, Harvard, Vancouver, ISO, and other styles
12

Ben, Kilanie Imed Eddine. "Les effets didactiques des différences de fonctionnement de la négation dans la langue arabe, la langue française et le langage mathématique." Lyon 1, 2005. http://www.theses.fr/2005LYO10195.

Full text
Abstract:
Dans ce travail de recherche, nous nous intéressons à l'étude de la notion de négation et notamment celle des énoncés renfermant une quantification universelle dans un contexte scolaire tunisien dans lequel l'enseignement des mathématiques se fait d'abord en arabe ensuite en français. En accord avec les travaux de recherche de Durang-Guerrier, nous soutenons la thèse selon laquelle le cadre de la logique des prédicats est pertinent pour l'analyse des questions relatives à la négation des énoncés quantifiés. Ce manuscrit se compose de trois parties. La première partie représente le cadre théorique adopté pour l'étude de la notion en question. Elle se compose de cinque chapitres : le chapitre 0 concerne le cadre logique de référence adopté qui est la logique des prédicats ; le chapitre 1 présente une enquête épistémologique qui est réalisée pour nos objectifs didactiques : le chapitre 2 traite de la notion de négation dans le calcul des prédicats ; le chapitre 3 est réservé à l'analyse de la négation chez les grammairiens français et arabes et le dernier chapitre de cette partie traite du probème de congruence au sens de Duval des trois registres arabe, français et mathématique du point de vue de la négation des énoncés contenant une quantification universelle. La deuxième partie est constituée de deux chapitres : le premier traite du statut de la négation logique dans l'enseignement tunisien des mathématiques et le deuxième étudie le fonctionnement et la place de la négation grammaticale dans l'enseignement tunisien des deux langues arabe et française. La troisième et dernière partie se compose de cinq chapitres : le premier chapitre est consacré à la méthodologie de l'expérimentation générale ; le deuxième est réservé à l'analyse des activités que nous avons proposés dans plusieurs de nos expérimentations ; les chapites 3 et 4 sont consacrés à l'expérimentation menée respectivment avec les enseignants tunisiens des deux langues arabe et française et avec les enseignants tunisiens de mathématiques. L'objet du dernier chapitre de ce manuscrit est l'expérimentation menée auprès des élèves de la neuvième année de base et de la première année de secondaire
APA, Harvard, Vancouver, ISO, and other styles
13

Boukhris, Samir. "Probabilités et induction : le programme de Carnap." Paris 1, 2001. http://www.theses.fr/2001PA010601.

Full text
Abstract:
Le programme de Carnap a montré non seulement que la logique inductive probabiliste était possible, mais encore que cette logique pouvait avoir la même précision que la logique déductive et qu'elle pouvait, comme celle-ci, résoudre d'importants problèmes. Il y a, de toute évidence, des imperfections, des déficiences et des paradoxes que ce programme a rencontrés. Carnap en était parfaitement conscient et il a cherché à les dépasser dans les multiples systèmes que lui et ses disciples ont tenté de mettre en place. Les fondements de la logique inductive sont loin d'être comparables à ceux de son modèle, la logique déductive, mais les premières pierres sont bien là. Le concept de probabilité utilisé est également clair et précisé. L'apport de Carnap est certes remarquable mais risque de paraître maigre lorsqu'on évalue la masse des difficultés rencontrées dans son programme. Carnap ainsi que ses disciples n'ont pas cessé de réviser ce programme, de l'améliorer, d'intégrer de nouveaux résultats et d'anticiper des difficultés. . . Ils sont sans conteste à la source d'un important courant d'idées qui continue aujourd'hui encore à marquer la philosophie et à animer les débats. Examiner le programme de Carnap dans sa totalité, suivre son évolution, le remettre à jour, l'actualiser, lui donner la place qu'il mérite et le situer par rapport aux autres tentatives concurrentes; tel est l'objectif de cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
14

Hermann, Odile. "Mécanisation de la recherche de preuves et de programmes en arithmétique fonctionnelle du second ordre." Nancy 1, 1995. http://www.theses.fr/1995NAN10054.

Full text
Abstract:
Ce travail a pour propos la synthèse de programmes à partir de preuves constructives dans un cadre logique spécifique: l'arithmétique fonctionnelle du second ordre. Une première étape consiste à proposer une transcription du système de règles initial exprime en déduction naturelle, en un système de séquents plus adapte au traitement automatique du développement de preuves. Pour mécaniser la recherche de preuves, nous définissons un ensemble de tactiques que nous prouvons correctes vis-à-vis du cadre logique de référence de façon à garantir l'adéquation du système de preuves obtenu. Parmi ces tactiques, nous nous concentrons sur les plans de preuve, tactiques particulières capables de développer complètement une preuve ou une classe de preuves. La partie centrale de notre travail consiste en une étude des mécanismes d'induction dont la mise en œuvre est nécessaire pour l'obtention de programmes définis récursivement. Nous montrons des liens entre forme d'induction, spécification du programme, définition des types de données, et réussite de la construction de la preuve. Pour tirer profit de cette étude, nous proposons une procédure de choix d'induction et un plan de preuve générique qui permet d'obtenir des programmes aussi variés que la fonction d'Ackermann, la fonction Fibonacci ou le tri d'une liste par arbre binaire. Ces travaux ont fait l'objet de l'implantation d'un système baptise SKIL (Synthesizing Knowledge in Intuitionistic Logic)
APA, Harvard, Vancouver, ISO, and other styles
15

Bsaïes, Khaled. "Construction de programmes logiques par synthèse de propriétés." Nancy 1, 1993. http://www.theses.fr/1993NAN10295.

Full text
Abstract:
Ce travail a pour propos la synthèse de propriétés de programmes logiques pour la transformation par pliage et dépliage. L'objectif général est l'amélioration de l'efficacité des programmes logiques par application des transformations. Le domaine de notre étude est celui des méthodes de développement formel de programmes. L'expérience et l'étude rigoureuse d'exemples montrent que les transformations par pliage et dépliage ne suffisent pas pour obtenir de manière systématique des programmes plus efficaces: il est utile de disposer et d'appliquer des propriétés qui sont des formules logiques particulières pouvant être déduites des clauses formant le programme. Le travail que nous avons réalisé s'articule autour de ces axes: 1) l'intégration de l'application de propriétés en tant que stratégies; 2) l'étude des techniques qui permettent de construire automatiquement des propriétés; en effet la découverte de propriétés est un point crucial qui marque souvent la limite de l'automatisation d'un système; 3) la preuve des propriétés découvertes. Nous avons montré que la découverte des propriétés peut être partiellement automatisé. La démarche générale consiste à mettre en évidence des classes particulières de programmes caractérisées par des modes entrée-sortie et des types. Les modes permettent d'orienter les spécifications en distinguant les données des résultats. Des techniques heuristiques ont été développées à partir de ces caractérisations. Elles permettent dans de nombreux cas de découvrir des propriétés intéressantes. Plus précisément, la stratégie proposée est basée sur l'analyse statique du programme transformé et utilise un mécanisme de projection. Nous avons étudié le problème de dépliage, ce problème est lié à la transformation de programmes logiques guidée par des schémas d'induction. Nous présentons quelques résultats théoriques liés à ce problème.
APA, Harvard, Vancouver, ISO, and other styles
16

Teguia, Michel. "Construction de grammaires attribuees associees a un programme logique et application au probleme du test d'occurrence." Orléans, 1990. http://www.theses.fr/1990ORLE2020.

Full text
Abstract:
Dans la plupart des interpretes prolog existants, l'unification est implantee, pour des raisons d'efficacite, sans test d'occurrence. Mais ceci peut avoir de graves consequences: creations de termes infinis non voulus, incorrection de la sld-resolution, bouclage dans l'algorithme d'unification, incorrection de certaines transformations,. . . Notre travail a pour objectif de definir des conditions suffisantes (le probleme du test d'occurrence etant indecidable en general) assurant qu'un programme logique (clauses de horn) peut s'executer sans test d'occurrence et sans pour autant modifier les proprietes declaratives et operationnelles du programme (aucun terme infini n'est cree et aucun echec ne peut etre du a un test d'occurrence positif). Pour cela, nous generalisons une methode introduite par p. Deransart et j. Maluzynski (1985) qui relie le probleme du test d'occurrence en programmation logique au probleme de circularite dans les grammaires attribuees: 1) en donnant une condition plus generale de non-necessite du test d'occurrence, independante de la strategie qui peut s'appliquer a de larges classes d'interpretes (sequentiels, avec appels retardes, paralleles. . . ); 2) en donnant un cadre theorique dans lequel on peut etudier clairement la relation entre le probleme du test d'occurrence et la circularite dans un systeme d'equations. Ce cadre permet de mettre en evidence la raison du lien entre la programmation logique et les grammaires attribuees et peut etre utilise pour d'autres problemes comme la verification de types et de modes
APA, Harvard, Vancouver, ISO, and other styles
17

Sadja, kam Judith. "Enseigner les concepts logiques en début d'université dans l'espace mathématique francophone : aspects didactiques épistémologiques et langagiers. Une étude de cas au Cameroun." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10224/document.

Full text
Abstract:
L’objet de notre étude porte sur la logique et le langage à la transition entre le lycée et l’université dans le contexte camerounais. Au Cameroun, dans l’enseignement secondaire, les concepts de logique sont très peu explicités en classe de mathématiques, du fait que leur enseignement n’est pas prescrit par les nouveaux programmes1 officiels. Ce n’est pas le cas de l’enseignement supérieur où un cours de logique formelle sous forme de rappel, est souvent donné en début d’année. Ce cours n’est pas prescrit par les programmes, mais certains enseignants en voient la nécessité. Les résultats de plusieurs travaux ont montré que certaines des difficultés que les étudiants rencontrent dans la pratique des mathématiques proviennent d’une mauvaise maîtrise des concepts de logique. Nous faisons l’hypothèse qu’ils sont insuffisamment pris en charge pa rles enseignants dans la classe de mathématiques, qui pensent qu’ils sont disponibles chez les étudiants, du fait de leur utilisation dans la vie courante d’une part, et progressivement dans l’activité mathématique. La thèse que nous soutenons est que, pour rendre opératoire les concepts de logique chez lesétudiants nouvellement arrivés à l’université, un minimum d’explicitation de ces concepts en relation avec leur usage dans l’activité mathématique est nécessaire pour les apprentissages en mathématiques à tout le moins dans l’enseignement supérieur. Pour défendre notre thèse, nous avons divisé notre travail en deux parties. Dans la première partie, nous présentons des éléments théoriques et analytiques nécessaires à notre travail, et une revue des travaux antérieurs en relation avec notre problématique. La deuxième partie porte sur les résultats d’une expérimentation que nous avons menée avec des élèves de terminale C d’un lycée de Yaoundé 2, et des étudiants de première année de licence de mathématiques de l’Ecole Normale Supérieure de Yaoundé. Elle s’est déroulée en deux temps : nous avons fait passer un questionnaire portant sur la logique et le langage aux élèves et aux étudiants, et à la suite de ce questionnaire, nous avons organisé un module de suivi avec huit étudiants ayant passé ce questionnaire. Le questionnaire nous a permis de repérer certaines conceptions des élèves et des étudiants concernant les concepts de logique,et le module de suivi a permis de provoquer des débats qui permettaient dans certains cas d’affiner nos analyses et nous donnaient des éléments permettant d’identifier des occasions pour expliciter certaines notions
Our study focuses on logic and language at the transition between high school and university in the Cameroonian context. In Cameroon secondary education, the concepts of logic are paid little attention in mathematics classes, due to the fact that their teaching is not prescribed in the new official syllabuses3. This is not the case of higher education, where a course on formal logic is oftengiven at the beginning of the year to first year university students, with a refreshing purpose. That course is not required in the syllabus, but some teachers see the need. Several scientific studies have shown that some of the difficulties encountered by studentswhile practicing mathematics come from their poor familiarity with concepts of logic. We assume that these students are insufficiently attended to by their teachers who think that the concepts are at their reach, since they are used in everyday life on the one hand, and they are gradually used in mathematical activities, on the other hand. In this thesis, we stand for the point that, for the concepts of logic to become real operational tools to a student who begins university studies, some teaching of these concepts which should address the connections with mathematical activities is necessary, at least as a starting point in higher education studies. To defend our thesis, we have divided our work into two parts which are as follows : In the first part, we present theoretical material necessary to our work as well as other technical tools that will be needed. We also provide a review of previous studies related to our issue. The second part is on an experiment we carried out with students from the Upper Sixth class - science option - of a high school in Yaoundé (Cameroon), and with first year university students of mathematics of the Yaoundé Higher Teachers’ Training College. This experiment had two stages : Firstly, the high school students and the university students filled out a questionnaire on logic and language. Following this, we organized a follow-up module involving 8 students purposely selected from their answers to the questionnaire. This questionnaire enabled us to detect meaningful points on how high school and university students grasp the concepts of logic, and the module helped to start debates which enabled in some cases to refine our analysis, and also provided us with strategic approaches forexplaining certain concepts of logic
APA, Harvard, Vancouver, ISO, and other styles
18

Alexandre, Francis. "Transformation de programmes logiques." Nancy 1, 1991. http://www.theses.fr/1991NAN10429.

Full text
Abstract:
La transformation de programmes est reconnue comme un moyen puissant de construire des programmes corrects et efficaces. La démarche générale consiste à appliquer pas à pas des transformations en vue d'obtenir un programme plus efficace. Dans ce cadre, le point de départ est une spécification écrite en clauses de horn (programme défini), les transformations de base sont le dépliage, le pliage et l'introduction de nouveaux prédicats. Les compositions des transformations de base sont appelées des tactiques. L'invention de tactiques produisant des programmes plus efficaces est étudiée. Ces tactiques sont basées sur une analyse statique des programmes, on considère des schémas de programmes. Les tactiques présentées font appel à la généralisation et peuvent être automatisées. Une transformation de programme défini en système de réécriture est définie. Les programmes transformes sont caractérises par des modes entrée-sortie. La correction de la transformation est prouvée. L'approche de ce travail est aussi expérimentale puisqu'un système de transformation appelé SPES a été développé
APA, Harvard, Vancouver, ISO, and other styles
19

Ferreira, Pedro Calixto. "Viae Negationis : la question de la négation dans le néoplatonisme latin : Jean Scots Erigene, Alain de Lille et Nicolas de Cues." Paris 4, 2004. http://www.theses.fr/2004PA040058.

Full text
Abstract:
Partant du constat que le néoplatonisme médiéval latin constitue un moment essentiel de l'histoire du concept de négation, cette recherche soulève l'hypothèse dd'une métamorphose progressive de la négation qui aboutit à un réel renversement de la position aristotélicienne en la matière. Ce bouleversement semble être une originalité du néoplatonisme latin, puisqu'il n'est encore pleinement accompli ni dans la mystique plotienne, ni dans le corpus dionysiacum. Ce dernier constitue pourtant la principale source du néoplatonisme latin médiéval. Cette entreprise de dépassement d'une approche de la négation comme dépouillement et effacement de la limite est inaugurée dans l'Occident médiéval latin par la pensée de Jean Scot, dont l'interprétation de Denys l'Aéropagite l'éloigne à la fois des conceptions aristotélicienne et dionysienne de la négation, et n'atteint son plein achèvement que dans la pensée de Nicolas de Cues, grâce à une confrontation directe avec les thèses métaphysiques d'Aristote, comme celles du principe de la non-contradiction et de la distinction entre acte et puissance, mais aussi grâce à l'interprétation cusaine de l'apophasis proclienne. Ce renversment est démontré à travers l'analyse des problématiques épistémologiques, ontologiques et théologiques sous-jacentes à la polysémie de la négation en prenant comme paradigme la pluralité du concept de néant. L'analyse met en lumière les deux versants principaux de l'approche néoplatonicienne latine de la négation, sa polysémie et sa fertilité : l'acte de nier se dit en plusieurs sens et ne nous laisse pas toujours dans l'indétermination, aussi bien sur le plan épistémologique qu'ontologique
On the basis that the Latin medieval neoplatonism constitutes one essential moment of the history of the concept of negation, this research raises the hypothesis of a progressive metamorphosis of a progressive metamorphosis of the negation that produces a real transgression of the aristotelician position on the matter. This upheaval seems to be an originality of the Latin neoplatonism, since it is not yet fully accomplished neither in the plotinian mystic, nor in the corpus dionysiacum. This last constitutes however the main source of the medieval Latin neoplatonism. This enterprise is going beyond of an approach of the negation understood like removal, erasure and suppression of the limit is inaugurated in the Latin medieval occident by John Scot Eriugena's thought, whose interpretation of corpus dionysiacum moves away at the same time from the aristotelician and Dionysian positions on the matter. This movement reaches its full achievement only in the thought of Nicholas of Cusa, owing to a direct confrontation with Aristotle's metaphysical thesis, like those o the principle of the contradiction and the distinction between actuality and potentiality, but also owing to a Nicholas of Cusa's interpretation of the proclian conception of apophasis. This transgression of the aristotelician position about negation is demonstrated through the analysis of the epistemological, ontological and theological problems subjacent the polysemia of the concept of negation which takes as paradigm the plurality of the concept of not being. The analysis makes clear the two principal slopes of the Latin neoplatonician approach of negation, i. E. Its polysemia and its fertility : negation has several senses and does not always leave us in the indetermination on the espistemological as well as ontological level
APA, Harvard, Vancouver, ISO, and other styles
20

Vavakova, Blanka. "La science de la Nation ? : les paradoxes politiques de la logique économique." Paris, Institut d'études politiques, 1999. http://www.theses.fr/1999IEPP0009.

Full text
Abstract:
La thèse vise à expliquer les changements en cours dans les relations 'Etat-science-industrie' en France et à en analyser les conséquences pour le système national de la recherche, et plus particulièrement pour les chercheurs. La politique de recherche, adoptée en 1982 par le gouvernement socialiste en constitue le point de départ. En voulant traduire la conviction largement partagée par les gouvernements d'autres pays de l'OCDE que la science devait jouer un rôle majeur dans la compétitivité des entreprises, et en conséquence des nations, elle s'est appuyée sur trois grands dispositifs: (i) la mobilisation de la recherche publique au service de l'industrie, (ii) la responsabilisation des régions en matière d'intégration de la recherche scientifique dans le développement régional, (iii) le renforcement du potentiel scientifique et technologique national par la promotion des programmes européens de coopération en R&D. Or, la signification et la portée de ses dispositifs doivent être appréciées en liaison avec deux processus parallèles qui les ont fortement marques, à savoir la décentralisation et l'ouverture du territoire national aux investissements étrangers. La devise républicaine "la science au service de la nation" qui caractérisait jusqu'alors les relations 'etat-recherche-industrie' en France, est en voie de perdre son sens face aux pouvoirs et aux intérêts des nouveaux acteurs politiques (régions et Europe) et économiques (les entreprises multinationales)
This thesis seeks to explain changes underway in the relationship between the state, science and industry in France and to analyze the consequences of these changes for the national system of research and more particuiariy for researchers within it. Its point of departure is the research policy adopted by the French socialist government in 1982. In keeping with the view prevalent within the OECD at that time, that science plays a central role in the competitiveness of enterprises and hence of nations, this policy aimed at (i) the mobilization of public research in the service of industry, (ii) the creation of a role for France's regions in ensuring the integration of scientific research into the regional development process, and (iii) the stregthening of the national science and technology base through the promotion of European R&D cooperation programmes. The impact and significance of France's research policy, however, cannot be understood in isolation from two parallel processes that have shaped its outcome - decentralization and the opening to foreign investment it is thus, that the republican slogan "science in the service of the nation , which to then had characterized the relationship between the state, research and industry in France, has begun to loose its meaning as new political (regions, Europe) and economic actors (multinational corporations) emerge with their own power and interests
APA, Harvard, Vancouver, ISO, and other styles
21

Gueneau, Armaël. "Mechanized verification of the correctness and asymptotic complexity of programs : the right answer at the right time." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7110.

Full text
Abstract:
Cette thèse s’intéresse à la question de démontrer rigoureusement que l’implantation d’un algorithme donné est non seulement correcte (elle renvoie bien le bon résultat dans tous les cas possibles), mais aussi possède la bonne complexité asymptotique (elle calcule toujours ce résultat en le temps attendu).Pour les chercheurs en algorithmique, caractériser la performance d’un algorithme se fait généralement en indiquant sa complexité asymptotique, notamment à l’aide de la notation “grand O” due à Landau. Nous détaillons, tout d’abord informellement, pourquoi de telles bornes de complexité asymptotiques sont également utiles en tant que spécifications formelles. La raison est que celles-ci permettent de raisonner de façon modulaire à propos du coût d’un programme : une borne en O s’abstrait de l’expression exacte du coût du programme, et par là des divers détails d’implantation. Par ailleurs, nous illustrons, à l’aide d’exemples simples, un certain nombre de difficultés liées à l’utilisation rigoureuse de la notation O, et qu’il est facile de négliger lors d’un raisonnement informel.Ces considérations sont mises en pratique en formalisant d’une part la notation O dans l’assistant de preuve Coq, et d’autre part en étendant CFML, un outil existant dédié à la vérification de programmes, afin de permettre à l’utilisateur d’élaborer des démonstrations robustes et modulaires établissant des bornes de complexité asymptotiques. Nous étendons la logique de séparation avec crédits temps—qui permet de raisonner à la fois sur des propriétés de correction et de complexité en temps—avec la notion de crédits temps négatifs. Ces derniers augmentent l’expressivité de la logique, donnent accès à des principes de raisonnement commodes et permettent d’exprimer certaines spécifications de manière plus élégante. Au niveau des spécifications, nous montrons comment des bornes de complexité asymptotique avec O s’expriment en logique de séparation avec crédits temps. Afin d’être capable d’établir de telles spécifications, nous développons une méthodologie qui permet à l’utilisateur de développer des démonstrations qui soient à la fois robustes et menées à un niveau d’abstraction satisfaisant. Celle-ci s’appuie sur deux principes clefs : d’une part, un mécanisme permettant de collecter et remettre à plus tard certaines contraintes durant une démonstration interactive, et par ailleurs, un mécanisme permettant de synthétiser semi-automatiquement une expression de coût, et ce sans perte de généralité.Nous démontrons l’utilité et l’efficacité de notre approche en nous attaquant à un certain nombre d’études de cas. Celles-ci comprennent des algorithmes dont l’analyse de complexité est relativement simple (par exemple, une recherche dichotomique, déjà hors de portée de la plupart des approches automatisées) et des structures de données (comme les “binary random access lists” d’Okasaki). Dans notre étude de cas la plus significative, nous établissons la correction et la complexité asymptotique d’un algorithme incrémental de détection de cycles publié récemment. Nous démontrons ainsi que notre méthodologie passe à l’échelle, permet de traiter des algorithmes complexes, donc l’analyse de complexité s’appuie sur des invariants fonctionnels subtils, et peut vérifier du code qu’il est au final possible d’utiliser au sein de programmes réellement utiles et utilisés
This dissertation is concerned with the question of formally verifying that the imple- mentation of an algorithm is not only functionally correct (it always returns the right result), but also has the right asymptotic complexity (it reliably computes the result in the expected amount of time).In the algorithms literature, it is standard practice to characterize the performance of an algorithm by indicating its asymptotic time complexity, typically using Landau’s “big-O” notation. We first argue informally that asymptotic complexity bounds are equally useful as formal specifications, because they enable modular reasoning: a O bound abstracts over the concrete cost expression of a program, and therefore abstracts over the specifics of its implementation. We illustrate—with the help of small illustrative examples—a number of challenges with the use of the O notation, in particular in the multivariate case, that might be overlooked when reasoning informally.We put these considerations into practice by formalizing the O notation in the Coq proof assistant, and by extending an existing program verification framework, CFML, with support for a methodology enabling robust and modular proofs of asymptotic complexity bounds. We extend the existing framework of Separation Logic with Time Credits, which allows to reason at the same time about correctness and time complexity, and introduce negative time credits. Negative time credits increase the expressiveness of the logic, and enable convenient reasoning principles as well as elegant specifications. At the level of specifications, we show how asymptotic complexity specifications using O can be integrated and composed within Separation Logic with Time Credits. Then, in order to establish such specifications, we develop a methodology that allows proofs of complexity in Separation Logic to be robust and carried out at a relatively high level of abstraction, by relying on two key elements: a mechanism for collecting and deferring constraints during the proof, and a mechanism for semi-automatically synthesizing cost expressions without loss of generality.We demonstrate the usefulness and practicality of our approach on a number of increasingly challenging case studies. These include algorithms whose complexity analysis is relatively simple (such as binary search, which is nonetheless out of the scope of many automated complexity analysis tools) and data structures (such as Okasaki’s binary random access lists). In our most challenging case study, we establish the correctness and amortized complexity of a state-of-the-art incremental cycle detection algorithm: our methodology scales up to highly non-trivial algorithms whose complexity analysis intimately depends on subtle functional invariants, and furthermore makes it possible to formally verify OCaml code which can then actually be used as part of real world programs
APA, Harvard, Vancouver, ISO, and other styles
22

Lachance, Geneviève. "La conception platonicienne de la contradiction." Thesis, Paris 4, 2015. http://www.theses.fr/2015PA040023.

Full text
Abstract:
Cette thèse se rapporte à la notion de contradiction, entendue en son sens logique ou formel. Plus précisément, elle vise à dégager une conception de la contradiction chez un philosophe qui, du point de vue chronologique, précède l’avènement de la syllogistique et de la logique : Platon. À partir de l’examen des dialogues réfutatifs de Platon, il s’agira de mettre en lumière la forme des propositions contradictoires, de déterminer la terminologie et les métaphores utilisées par Platon pour nommer et décrire la contradiction et d’évaluer le contexte dans lequel avait lieu la réflexion platonicienne. L’analyse révélera que Platon se faisait une idée somme toute assez précise de la contradiction logique et qu’il a même eu une influence sur Aristote lorsque ce dernier élabora son célèbre principe de non-contradiction
This thesis examines the notion of contradiction understood in its logical or formal sense. Specifically, it seeks to study that notion in a philosopher who, chronologically speaking, precedes the advent of syllogistic or logic: Plato. Based on an analysis of Plato’s refutative dialogues, this thesis will determine the form given by Plato to contradictory propositions, unveil the terminology and metaphors used by Plato to name and describe contradictions and evaluate the context in which Plato reflected upon contradiction. The analysis will reveal that Plato had a very clear idea of what is a logical contradiction and that he even had an influence on Aristotle when the latter defined his famous principle of non-contradiction
APA, Harvard, Vancouver, ISO, and other styles
23

Calbo, Stéphane. "Six rituels de la consommation TV : une approche ethnographique de la réception en tant que processus affectif conditionné par l'appartenance sociale, la logique sérielle de l'institution TV et le monde du programme." Paris 3, 1996. http://www.theses.fr/1997PA030007.

Full text
Abstract:
Partant d'une analyse de la reception tv en tant qu'experience affective soumise a diverses determinations (sociales, institutionnelles, textuelles), ce travail rend compte a la fois du poids de ces pre-determinations et des phenomenes subtils et complexes de la differenciation sociale qui n'apparaissent jamais comme des processus de reproduction mecanique. Il debouche in fine sur une sorte de deplacement de la problematique a partir de l'observation de singularites relatives et de l'integration des perspectives interactionniste et "constructiviste" sur le plan analytique et theorique. Ceci conduit a envisager la reception tv en tant que processus de socialisation defini comme jeu relationnel entre les manifestations d'une subjectivite affective et le faisceau de determinations auxquelles cette subjectivite est soumise dans la situation de consommation du programme. Dans cette optique, le rituel du programme peut apparaitre - non pas toujours mais dans certains cas - comme un acte intentionnel de reproduction motive par l'attente de benefices individuels. La conduite de reproduction ne releve pas seulement ici du desir de conformite mais egalement de la contrepartie proprioceptive et ou symbolique esperee et effectivement retiree de la pratique televisuelle. Elle n'est pas necessairement soumission aveugle et mecanique a l'ordre social mais peut etre aussi, parfois, acte individuel d'integration quasi-volontaire dans la collectivite, ceci etant rendu possible au travers du rituel tv
Based primarily on case studies of regular program viewers, this research initially explores the ways in which the viewer's reception of the tv program, considered as an "affective" experience , is strongly conditioned by social, institutional and textual determinations. However, the research also demonstrates that social differentiation, as it occurs within the relationship between viewers and tv programs, cannot be reduced to a mechanical process of reproduction. Social differentiation is a process which is subtile, complex and not always predictible. The conclusions drawn from the analysis of this process and of the singularities in the individual viewer's tv consumption, as well as the progressive influence of the theoretical interactionist perspective, leads us finally to consider the experience of the ritual viewing of a tv program as a specific form of socialization. This form of socialization can be defined as the dynamic interplay between the tv viewer's subjective awareness, as it relates in particular to his affective experience, and the network of determinations which condition tv consumption. From this perspective, the tv viewing ritual can be seen as an intentional act of reproduction and not just as a blind and mechanical behaviour. This intentional act is not limited to the desire of conformity. The tv viewing ritual as an intentional act is motivated by the expectation of affective and or symbolic benefits (such as pleasure, meanings or personal solutions) and, in some cases, by the expectation of the social benefit of integration within the collectivity
APA, Harvard, Vancouver, ISO, and other styles
24

Demange, Vincent. "Vers un calcul des constructions pédagogique." Phd thesis, Université de Metz, 2012. http://tel.archives-ouvertes.fr/tel-00838147.

Full text
Abstract:
Les systèmes pédagogiques sont apparus récemment à propos des calculs propositionnels (jusqu'à l'ordre supérieur), et consistent à donner systématiquement des exemples des notions (hypothèses) introduites. Formellement, cela signifie que pour mettre un ensemble Delta de formules en hypothèse, il est requis de donner une substitution sigma telle que les instances de formules sigma(Delta) soient démontrables. Cette nécessité d'exemplification ayant été pointée du doigt par Poincaré (1913) comme relevant du bon sens: une définition d'un objet par postulat n'ayant d'intérêt que si un tel objet peut être construit. Cette restriction appliquée à des systèmes formels intuitionnistes rejoint l'idée des mathématiques sans négation défendues par Griss (1946) au milieu du siècle dernier, et présentées comme une version approfondie de l'intuitionnisme. À travers l'isomorphisme de Curry-Howard (1980), la contrepartie calculatoire est l'utilité des programmes définis dans les systèmes fonctionnels correspondants: toute fonction peut être appliquée à un argument clos. Les premiers résultats concernant les calculs propositionnels jusqu'au second ordre ont été publiés récemment par Colson et Michel (2007, 2008, 2009). Nous exposons dans cette thèse une tentative d'uniformisation et d'extension au Calcul des Constructions (CC) des précédents résultats. Tout d'abord une définition formelle et précise de sous-système pédagogique du Calcul des Constructions est introduite, puis différents tels sous-systèmes sont déclinés en exemple.
APA, Harvard, Vancouver, ISO, and other styles
25

Herment, Michel. "GLEF ATINF, un cadre générique pour la connexion d'outils d'inférence et l'édition graphique de preuves." Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344974.

Full text
Abstract:
Après un historique bref et général de la déduction automatique, on analyse les tendances actuelles et les besoins en présentation de preuves et communication d'outils d'inférence. Les notions théoriques concernées sont présentées et étudiées en détail. On donne ensuite une synthèse comparative critique et exhaustive de l'état de l'art. Cette synthèse manquait dans la littérature. L'analyse des notions fondamentales en logique et la synthèse sur l'état de l'art permettent d'établir les caractéristiques retenues pour le système GLEF (Graphical & Logical Edition Framework). La conception et la réalisation de deux langages ont permis de rendre GLEF générique (c'est à dire paramétrable par le système formel employé et par la présentation de ses preuves). Un formalisme de définition, fondé sur le Calcul des Construction (dû à Coquand et Huet), sert à représenter et à vérifier les systèmes formels et les preuves dans ses systèmes formels. Un langage de présentation, fondé sur la notion de «boîte», sert à décrire leur présentation. En annexe nous donnons un algorithme original pour l'opération d'effacement, particulièrement difficile en lambda-calcul typé, qui sert à réaliser la commande «couper» de GLEF. GLEF a été développé au sein du projet ATINF (ATelier d'INFérence). Un manuel utilisateur rudimentaire et de nombreux exemples d'utilisation en sont donnés. Certains exemples montrent comment, après avoir spécifié la définition et la présentation d'un système formel objet, un utilisateur de GLEF peut construire ou visualiser des preuves en manipulant directement les objets (formules, preuves partielles, etc.) à l'écran, avec la souris. D'autres illustrent comment GLEF présente les preuves produites par les démonstrateurs d'ATINF ou extérieurs à ATINF. Les principales lignes de recherche future concluent ce travail
APA, Harvard, Vancouver, ISO, and other styles
26

Ait, Mohamed Otmane. "La théorie du π-calcul dans le système HOL." Nancy 1, 1996. http://www.theses.fr/1996NAN10091.

Full text
Abstract:
Le π-calcul est un calcul de processus dont la théorie est assez proche de CCS d'une part et possédant une grande puissance d'expression d'autre part. On peut représenter une variété remarquable de notions qu'on retrouve dans les langages à haut niveau. Par exemple, le λ-calcul, la transmission de processus et la localité de processus. On peut, également, coder d'une façon raisonnable les structures de données. De ce fait le π-calcul est devenu l'exemple typique de calcul de processus mobile, ou la structure topologique entre les processus change dynamiquement au fur et à mesure que l'évolution du processus progresse. La mobilité dans ce calcul est dû au fait que les processus peuvent échanger des noms de canaux. L’objectif principal de la thèse est la réalisation d'un outil de preuve pour le π-calcul. La simplicité de sa théorie basée sur un nombre restreint d’opérations et offrant des techniques de preuves basées sur la bisimulation permettent un traitement formel. Or, la plus grande partie des problèmes propres au π-calcul porte sur des systèmes avec un nombre infini d'états sur lesquels les techniques de vérification automatiques échouent. C’est pourquoi, nous nous sommes orientés vers un système de preuve ouvert dans lequel on peut (1) formaliser les arguments mathématiques les plus sophistiques et (2) automatiser les parties répétitives d'une preuve. Notre choix s'est fait sur l'environnement de preuve HOL qui satisfait les deux conditions (1) et (2). En effet, HOL est basé sur une logique classique d'ordre supérieur et hérité du système LCF l'idée de tactics et tacticals ce qui permet une représentation directe et naturelle des arguments mathématiques et permet d'automatiser certaines parties de preuves. L’approche que nous avons adoptée pour représenter le π-calcul dans HOL est une approche définitionnelle. C’est-à-dire nous avons présenté la syntaxe et la sémantique du π-calcul dans la logique du système HOL. Dans ce cas les lois algébriques du π-calcul sont dérivées formellement. Bien que cette approche soit difficile à mettre en œuvre, elle a l'avantage d'assurer la cohérence du système de preuve résultant. Dans l'environnement de preuve, π-calcul-HOL, que nous baptisons PIC, on peut spécifier et prouver la correction des systèmes concurrents, soit par un raisonnement équationnel, soit par la technique de bisimulation. Cette approche nous permet de surmonter le problème de la vérification des systèmes à états infinis ou dont la structure est définie inductivement. Nous expérimentons le système sur la preuve de correction d'un protocole de communication, et sur l'étude du codage des entiers naturels dans le π-calcul.
APA, Harvard, Vancouver, ISO, and other styles
27

Roegel, Denis. "Étude de la sémantique de programmes parallèles réels en TLA." Nancy 1, 1996. http://www.theses.fr/1996NAN10272.

Full text
Abstract:
Dans la première partie de cette thèse, nous avons voulu faciliter la dérivation de programmes parallèles réels à partir de spécifications abstraites. Nous avons défini une étape intermédiaire (cTLA) comme un croisement entre un langage de spécification (TLA+) et un langage parallèle réel. Nous avons conservé des structures de données très souples et abstraites, et en même temps, nous avons incorporé des structures de contrôle plus proches de langages réels. Toute la sémantique du langage a été définie au sein de TLA+. Dans la seconde partie, nous avons étudié des réseaux d'actions TLA. Un réseau est une représentation graphique d'une exécution structurée. Nous avons défini une opération de réduction sur les réseaux, dont le but est de trouver un réseau équivalent à un réseau donné, mais plus simple, au sens où le nombre d'arêtes est plus petit. Le système de réécriture que nous avons proposé correspond à des simplifications élémentaires dans les réseaux, et par voie de conséquence dans les programmes parallèles pouvant correspondre aux réseaux. Ce système est confluent. Lorsqu’un réseau peut être entièrement réduit à une action TLA, et si ce réseau satisfait quelques contraintes simples, le calcul représenté par le réseau est observationnellement équivalent à l'exécution de l'action qui est sa réduction. La réduction est alors un moyen de prouver qu'une action est implémentée par un groupe structure d'actions
APA, Harvard, Vancouver, ISO, and other styles
28

Emmanuel, Desmontils. "Le projet CordiFormes : une plate-forme pour la construction de modeleurs déclaratifs." Phd thesis, Université de Nantes, 1998. http://tel.archives-ouvertes.fr/tel-00816786.

Full text
Abstract:
Les travaux en modélisation déclarative sont assez nombreux. Il est désormais nécessaire de mettre en place des méthodes générales basées sur celles déjà étudiées et de proposer des outils pour le développement de modeleurs déclaratifs. Nous proposons un nouveau formalisme basé sur les ensembles flous. Ce formalisme apparaît d'une part comme une synthèse et une unification des travaux existants et d'autre part apporte des éléments nouveaux comme la logique floue, la gestion linguistique de la négation. Nous étudions particulièrement le type de propriété le plus simple : la propriété élémentaire. A partir d'une propriété de base, d'un opérateur flou et d'un modificateur, nous mettons en place une méthode pour déterminer la sémantique d'une propriété élémentaire. Nous proposons aussi un traitement original de sa négation. Plutôt que d'utiliser la négation logique habituelle, nous nous intéressons à une gestion se basant sur des notions linguistiques. Enfin, nous présentons des solutions de traitement pour les autres propriétés. Cependant, ces solutions ne sont pas encore vraiment satisfaisantes. La plupart des projets en modélisation déclarative mettent en oeuvre des techniques similaires. A partir de ces travaux et du formalisme flou, nous développons le projet CordiFormes, une plate-forme de programmation visant à faciliter la mise en oeuvre de futurs modeleurs déclaratifs. Ses caractéristiques sont la simplicité, la souplesse de programmation, l'efficacité, l'extensibilité, la réutilisabilité et le prototypage rapide du modeleur. CordiFormes propose des outils sur trois niveaux : le noyau comportant toutes les structures et algorithmes de base, la couche interface proposant dialogues et composants d'interface et, enfin, la couche application pour produire rapidement un premier modeleur. Trois applications permettent de valider le formalisme et les outils de la plate-forme.
APA, Harvard, Vancouver, ISO, and other styles
29

Fauthoux, David. "Des grains aux aspects, proposition pour un modèle de programmation orientée-aspect." Toulouse 3, 2004. http://www.theses.fr/2004TOU30100.

Full text
Abstract:
Le développement des programmes rencontre actuellement des difficultés pour la séparation des préoccupations qui le composent. Elles sont entrelacées et leur code est éparpillé dans le programme. La programmation orientée-aspect a pour but de rendre modulaires les préoccupations et de fournir les outils pour les mélanger entre elles et au programme. Après avoir analysé en détail quatre systèmes orientés-aspect majeurs, ce mémoire présente un modèle à grains fins, les " lentilles ". Elles sont regroupées par niveaux d'abstraction. Le premier stade est le " flot " qui peut entrer en intersection avec d'autres flots. Le second stade est l' " aspect " qui est appliqué de façon clairement localisée au programme. L'objectif principal ici est l'expression de la structure du programme, afin de la rendre visible et modifiable dynamiquement. Le modèle permet d'avancer d'un pas dans la distinction entre architecturation du programme et développement des composants. Le métier d'architecte des programmes, qui possède l'outil de composition, et séparé de celui de développeur, qui manipule le langage de programmation
Current programming technologies do not able to clearly separate crosscutting concerns. The code of a concern is scattered into the program components. After having detailed and analysed four main aspect-oriented systems, this report presents a fine-grained model. These grains, the "lenses", are grouped to create more abstract components. The first step of the report describes a "flow" as a chain of lenses. A program can be defined as a set of intersecting flows. The second step of the report comes to the "aspect" concept, applied onto specified points of the program. These abstract groups (flows and aspects) are exactly shaped like lenses. Thus the model is consistent from the bottom level (classes) to the more abstract ones (groups, and groups of groups). The main goal of this report is to enable to express as brightly as possible the structure of the program. The model walks on the way which aims at splitting the program architecture building phase from the component writing phase. Architect is a job which requires composition skills and tools. It is to be separated from the developer job which uses and manipulates the program language to write components
APA, Harvard, Vancouver, ISO, and other styles
30

Al, Wohaib Mona. "Modélisation et formalisation de l'aspect et du temps verbal arabe et français : implémentation didactique vers le français sur Internet." Thesis, Besançon, 2012. http://www.theses.fr/2012BESA1011/document.

Full text
Abstract:
Notre thèse s'adresse aux francophones qui veulent apprendre l'arabe, son lexique, sa syntaxe et sa sémantique. L'une des difficultés majeures que rencontre l'apprenant dès qu'il entre en contact avec notre langue, est le traitement des aspects et des temps, localement et dans l'ensemble de l'énoncé. Dans le cadre, d'une description des aspects et des temps nous sommes contraints de faire une étude générale de la morphologie verbale et des catégories grammaticales de l'arabe standard. Mais nous devons aussi travailler sur les mêmes structures en français qui est la langue source de nos apprenants afin de mettre en regard les deux systèmes linguistiques. Le second visage de ce travail est nettement plus technologique. Nous avons insisté sur les interfaces des leçons que nous présentons sur Internet afin de montrer comment elles participent de façon active à la compréhension des contenus par les apprenants
Our thesis is intended for francophones wishing to learn Arab, its lexicon, its syntax and its semantics. One of the main difficulties which the learner encounters as soon as he enters into contact with our language is the treatment of aspects and of tenses, bath locally and throughout the whole statement or text. The description of aspects and tenses requires us to make a general study of the verbal morphology of the grammatical structures of standard Arab. But we are also brought to work on the same structures in French which is the source language of the learners in order to make a comparative study of the two language-systems. The second face of this work is considerab1y more technical. We have insisted on the interfaces of the lessons that we present on Internet in order to show how they contribute in an active way to the understanding of the contents by the learners
APA, Harvard, Vancouver, ISO, and other styles
31

Osseiran, Adam. "Définition, étude et conception d'un microprocesseur autotestable spécifique : cobra." Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00320884.

Full text
Abstract:
Description des différentes étapes de la conception d'un microprocesseur pour le contrôle des automatismes de sécurité, en particulier pour les systèmes de transport. Ce microprocesseur est autotestable, c'est-à-dire capable de détecter ses propres erreurs. La conception du circuit est basée sur les hypothèses de pannes au niveau analytique dans la technologie NMOS. Les blocs fonctionnels «Strongly Fault Secure» et les contrôleurs «Strongly Code Disjoint» sont à la base des circuits «Self-checking», dits autotestables. Le circuit COBRA démontre la faisabilité d'un microprocesseur autotestable. COBRA gère indépendamment 19 signaux différents, date des événements externes, mesure des fréquences, surveille 14 entrées logiques et possède 7 sorties indépendantes. Le programme d'application de COBRA est contenu dans une mémoire morte programmable externe de 16 Koctets adressés par 14 bits multiplexés sur le bus interne de 8 bits. COBRA contient également une liaison série, une mémoire à accès direct de 64 octets et 3 temporisateurs de 14 bits indépendants ainsi qu'une unité arithmétique et logique de 8 bits, COBRA exécute un jeu de 43 instructions
APA, Harvard, Vancouver, ISO, and other styles
32

Pissavin, Patrice. "De quoi les "théorèmes de limitation des formalismes" : théorèmes de Gödel de 1931 et apparentés, sont-ils la limitation?" Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01H212.

Full text
Abstract:
Nous cherchons à définir la nature des limitations révélées par les « théorèmes de limitation des formalismes » (Théorèmes de Gödel de 1931, de Church de 1936, et de Turing de 1936-1937). Pour répondre à cette question, nous avons retenu comme fil conducteur Je programme de Hilbert (au sens large) : d'une part la réponse qu'Hilbert espérait apporter au problème des fondements, d'autre part la justification qu'il espérait apporter à l'absence de problèmes mathématiques insolubles. Cela nous a d'abord conduit à proposer une interprétation précise des deux aspects de ce programme. Nous avons ensuite analysé les propositions variées qui ont été faites en réponse à ce programme, incluant en particulier celle de Michael Detlefsen, tout en prenant en compte les résultats d'indécidabilité arithmétiques qui ont été obtenus dans les années 1970. Nous avons pour cela effectué une analyse détaillée de la thèse de Church-Turing. Nous avons également discuté les différentes positions qui ont été défendues dans le cadre du débat induit par l'argument de Lucas-Penrose. Nous avons enfin discuté les réponses que Post, Myhill et Ladrière ont successivement apportées à la question générale posée. Sur la base de l'ensemble de cette analyse, notre propre réponse est que les ces théorèmes mettent en évidence une certaine relativité associée au recours à la formalisation elle-même, qui se caractérise par un ancrage nécessaire bien circonscrit dans la pratique empirique des mathématiques informelles
We want to define the limitations content revealed by the theorems of formalisms limitation (Godel's theorems of 1931, Church's theorem of 1936 and Turing's theorem of 1936-1937). In order to answer this question, we have accepted as main theme Hilbert' s program (in the broad sense) : on the one hand, the answer that Hilbert hoped to give to foundations problem, and on the other hand, the justification he hoped to give to the lack of insoluble mathematical problems. This first lead us to propose a precise interpretation of the two aspects of this program. We have then analyzed the various proposals which have been given in answer this program, including in particular Michael Detlefsen'one, taking into account arithmetical indecidability results obtained in the 1970's. In this aim we have made a detailed analysis of Church-Turing's thesis. We have also discussed the different positions which have been held within the framework induced by Lucas-Penrose's argument. We have then discussed Post, Myhill and Ladrière's successively answers given to the general question asked. On the basis on this whole analysis, our own answer is that these theorems show a kind of relativity in relation with the use of formalization itself, which must be rooted in a confined part of the empirical practice of informal mathematics
APA, Harvard, Vancouver, ISO, and other styles
33

Henry, Julien. "Static analysis of program by Abstract Interpretation and Decision Procedures." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM037/document.

Full text
Abstract:
L'analyse statique de programme a pour but de prouver automatiquement qu'un programme vérifie certaines propriétés. L'interprétation abstraite est un cadre théorique permettant de calculer des invariants de programme. Ces invariants sont des propriétés sur les variables du programme vraies pour toute exécution. La précision des invariants calculés dépend de nombreux paramètres, en particulier du domaine abstrait et de l'ordre d'itération utilisés pendant le calcul d'invariants. Dans cette thèse, nous proposons plusieurs extensions de cette méthode qui améliorent la précision de l'analyse.Habituellement, l'interprétation abstraite consiste en un calcul de point fixe d'un opérateur obtenu après convergence d'une séquence ascendante, utilisant un opérateur appelé élargissement. Le point fixe obtenu est alors un invariant. Il est ensuite possible d'améliorer cet invariant via une séquence descendante sans élargissement. Nous proposons une méthode pour améliorer un point fixe après la séquence descendante, en recommençant une nouvelle séquence depuis une valeur initiale choisie judiscieusement. L'interprétation abstraite peut égalementêtre rendue plus précise en distinguant tous les chemins d'exécution du programme, au prix d'une explosion exponentielle de la complexité. Le problème de satisfiabilité modulo théorie (SMT), dont les techniques de résolution ont été grandement améliorée cette décennie, permettent de représenter ces ensembles de chemins implicitement. Nous proposons d'utiliser cette représentation implicite à base de SMT et de les appliquer à des ordres d'itération de l'état de l'art pour obtenir des analyses plus précises.Nous proposons ensuite de coupler SMT et interprétation abstraite au sein de nouveaux algorithmes appelés Modular Path Focusing et Property-Guided Path Focusing, qui calculent des résumés de boucles et de fonctions de façon modulaire, guidés par des traces d'erreur. Notre technique a différents usages: elle permet de montrer qu'un état d'erreur est inatteignable, mais également d'inférer des préconditions aux boucles et aux fonctions.Nous appliquons nos méthodes d'analyse statique à l'estimation du temps d'exécution pire cas (WCET). Dans un premier temps, nous présentons la façon d'exprimer ce problème via optimisation modulo théorie, et pourquoi un encodage naturel du problème en SMT génère des formules trop difficiles pour l'ensemble des solveurs actuels. Nous proposons un moyen simple et efficace de réduire considérablement le temps de calcul des solveurs SMT en ajoutant aux formules certaines propriétés impliquées obtenues par analyse statique. Enfin, nous présentons l'implémentation de Pagai, un nouvel analyseur statique pour LLVM, qui calcule des invariants numériques grâce aux différentes méthodes décrites dans cette thèse. Nous avons comparé les différentes techniques implémentées sur des programmes open-source et des benchmarks utilisés par la communauté
Static program analysis aims at automatically determining whether a program satisfies some particular properties. For this purpose, abstract interpretation is a framework that enables the computation of invariants, i.e. properties on the variables that always hold for any program execution. The precision of these invariants depends on many parameters, in particular the abstract domain, and the iteration strategy for computing these invariants. In this thesis, we propose several improvements on the abstract interpretation framework that enhance the overall precision of the analysis.Usually, abstract interpretation consists in computing an ascending sequence with widening, which converges towards a fixpoint which is a program invariant; then computing a descending sequence of correct solutions without widening. We describe and experiment with a method to improve a fixpoint after its computation, by starting again a new ascending/descending sequence with a smarter starting value. Abstract interpretation can also be made more precise by distinguishing paths inside loops, at the expense of possibly exponential complexity. Satisfiability modulo theories (SMT), whose efficiency has been considerably improved in the last decade, allows sparse representations of paths and sets of paths. We propose to combine this SMT representation of paths with various state-of-the-art iteration strategies to further improve the overall precision of the analysis.We propose a second coupling between abstract interpretation and SMT in a program verification framework called Modular Path Focusing, that computes function and loop summaries by abstract interpretation in a modular fashion, guided by error paths obtained with SMT. Our framework can be used for various purposes: it can prove the unreachability of certain error program states, but can also synthesize function/loop preconditions for which these error states are unreachable.We then describe an application of static analysis and SMT to the estimation of program worst-case execution time (WCET). We first present how to express WCET as an optimization modulo theory problem, and show that natural encodings into SMT yield formulas intractable for all current production-grade solvers. We propose an efficient way to considerably reduce the computation time of the SMT-solvers by conjoining to the formulas well chosen summaries of program portions obtained by static analysis.We finally describe the design and the implementation of Pagai,a new static analyzer working over the LLVM compiler infrastructure,which computes numerical inductive invariants using the various techniques described in this thesis.Because of the non-monotonicity of the results of abstract interpretation with widening operators, it is difficult to conclude that some abstraction is more precise than another based on theoretical local precision results. We thus conducted extensive comparisons between our new techniques and previous ones, on a variety of open-source packages and benchmarks used in the community
APA, Harvard, Vancouver, ISO, and other styles
34

Rady, Ahmed. "L'art de réfuter. Approche rhétorico-pragmatique du dialogue théâtral en France au XXème siècle." Thesis, Paris 3, 2013. http://www.theses.fr/2013PA030072.

Full text
Abstract:
Nombreux sont les études consacrées ces dernières années au sujet de la réfutation. La plupart des ces études visent à remettre en lumière la réfutation dans sa structure logico-sémantique. Cette thèse tente par ailleurs à souligner que la réfutation est un art à part entier, au même titre que l’art d’argumenter, étant fondé sur la résistance aux paroles des autres interlocuteurs dans le dialogue théâtral où s’enchaînent les dimensions logique, dialogique, sémantique, rhétorique et pragmatique. L’analyse du texte théâtral nous a permis d’établir que la réfutation, malgré l’évolution sémantique du terme, est associée à la violation de la doxa sociale et son usage à travers les topoï, les figures et preuves du discours dérivé. Elle est également associée à la négation et appuyée par des connecteurs marquant l’opposition entre les points de vue du partenaire du dialogue. Cette étude aimerait donc à contribuer au débat actuel en proposant une piste de recherche dont nous avons la présomption de croire qu’elle est des plus fécondes
Of the numerous studies devoted in recent years to the study of refutation, most have aimed to shed light on refutation in its logical-semantic structure. This thesis aims to show that refutation is a full-fledged art based, like the art of argumentation, on resistance to the words of other interlocutors in theatrical dialogue, in which the logical, dialogical, semantic, rhetorical and pragmatic dimensions combine. The analysis of theatre texts has allowed us to establish that refutation, in spite of the semantic evolution of the term, is associated with the violation of social doxa and its use via topoï, figures and proofs of derived discourse. It is also associated with negation and is supported by connectors that mark opposition among the points of view of the partners in dialogue. This study seeks to contribute to the current debate by proposing a research path that appears to have borne fruit
APA, Harvard, Vancouver, ISO, and other styles
35

Kara-Terki, Chafik. "Une méthode de mise au point des circuits intégrés." Paris 6, 1986. http://www.theses.fr/1986PA066113.

Full text
Abstract:
La méthode de mise au point des circuits intégrés VLSI est basée sur l'utilisation de techniques améliorant la testabilité, comme le chemin de test (LSSD). Différentes approches structurées (approches descendante, ascendante, recherche binaire) sont étudiées à travers un circuit complexe, le papillon FFT. Les problèmes spécifiques de la mise au point sont analysés et des solutions sont proposées. La réalisation d'un outil de mise au point est présentée. Il est composé d'un système permettant l'échantillonnage et la génération de vecteurs de test et d'un ensemble d'interfaces logicielles et matérielles assurant la liaison avec la chaîne de conception assistée par ordinateur et un banc de test sous pointes.
APA, Harvard, Vancouver, ISO, and other styles
36

Memon, Abdul Wahid. "Crowdtuning : towards practical and reproducible auto-tuning via crowdsourcing and predictive analytics." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV037/document.

Full text
Abstract:
Le réglage des heuristiques d'optimisation de compilateur pour de multiples cibles ou implémentations d’une même architecture est devenu complexe. De plus, ce problème est généralement traité de façon ad-hoc et consomme beaucoup de temps sans être nécessairement reproductible. Enfin, des erreurs de choix de paramétrage d’heuristiques sont fréquentes en raison du grand nombre de possibilités d’optimisation et des interactions complexes entre tous les composants matériels et logiciels. La prise en compte de multiples exigences, comme la performance, la consommation d'énergie, la taille de code, la fiabilité et le coût, peut aussi nécessiter la gestion de plusieurs solutions candidates. La compilation itérative avec profil d’exécution (profiling feedback), le réglage automatique (auto tuning) et l'apprentissage automatique ont montré un grand potentiel pour résoudre ces problèmes. Par exemple, nous les avons utilisés avec succès pour concevoir le premier compilateur qui utilise l'apprentissage pour l'optimisation automatique de code. Il s'agit du compilateur Milepost GCC, qui apprend automatiquement les meilleures optimisations pour plusieurs programmes, données et architectures en se basant sur les caractéristiques statiques et dynamiques du programme. Malheureusement, son utilisation en pratique, a été très limitée par le temps d'apprentissage très long et le manque de benchmarks et de données représentatives. De plus, les modèles d'apprentissage «boîte noire» ne pouvaient pas représenter de façon pertinente les corrélations entre les caractéristiques des programme ou architectures et les meilleures optimisations. Dans cette thèse, nous présentons une nouvelle méthodologie et un nouvel écosystème d’outils(framework) sous la nomination Collective Mind (cM). L’objectif est de permettre à la communauté de partager les différents benchmarks, données d’entrée, compilateurs, outils et autres objets tout en formalisant et facilitant la contribution participative aux boucles d’apprentissage. Une contrainte est la reproductibilité des expérimentations pour l’ensemble des utilisateurs et plateformes. Notre cadre de travail open-source et notre dépôt (repository) public permettent de rendre le réglage automatique et l'apprentissage d’optimisations praticable. De plus, cM permet à la communauté de valider les résultats, les comportements inattendus et les modèles conduisant à de mauvaises prédictions. cM permet aussi de fournir des informations utiles pour l'amélioration et la personnalisation des modules de réglage automatique et d'apprentissage ainsi que pour l'amélioration des modèles de prévision et l'identification des éléments manquants. Notre analyse et évaluation du cadre de travail proposé montre qu'il peut effectivement exposer, isoler et identifier de façon collaborative les principales caractéristiques qui contribuent à la précision de la prédiction du modèle. En même temps, la formalisation du réglage automatique et de l'apprentissage nous permettent d'appliquer en permanence des techniques standards de réduction de complexité. Ceci permet de se contenter d'un ensemble minimal d'optimisations pertinentes ainsi que de benchmarks et de données d’entrée réellement représentatifs. Nous avons publié la plupart des résultats expérimentaux, des benchmarks et des données d’entrée à l'adresse http://c-mind.org tout en validant nos techniques dans le projet EU FP6 Milepost et durant un stage de thèse HiPEAC avec STMicroelectronics
Tuning general compiler optimization heuristics or optimizing software for rapidly evolving hardware has become intolerably complex, ad-hoc, time consuming and error prone due to enormous number of available design and optimization choices, complex interactions between all software and hardware components, and multiple strict requirements placed on performance, power consumption, size, reliability and cost. Iterative feedback-directed compilation, auto-tuning and machine learning have been showing a high potential to solve above problems. For example, we successfully used them to enable the world's first machine learning based self-tuning compiler, Milepost GCC, which automatically learns the best optimizations across multiple programs, data sets and architectures based on static and dynamic program features. Unfortunately, its practical use was very limited by very long training times and lack of representative benchmarks and data sets. Furthermore, "black box" machine learning models alone could not get full insight into correlations between features and best optimizations. In this thesis, we present the first to our knowledge methodology and framework, called Collective Mind (cM), to let the community share various benchmarks, data sets, compilers, tools and other artifacts while formalizing and crowdsourcing optimization and learning in reproducible way across many users (platforms). Our open-source framework and public optimization repository helps make auto-tuning and machine learning practical. Furthermore, cM let the community validate optimization results, share unexpected run-time behavior or model mispredictions, provide useful feedback for improvement, customize common auto-tuning and learning modules, improve predictive models and find missing features. Our analysis and evaluation of the proposed framework demonstrates that it can effectively expose, isolate and collaboratively identify the key features that contribute to the model prediction accuracy. At the same time, formalization of auto-tuning and machine learning allows us to continuously apply standard complexity reduction techniques to leave a minimal set of influential optimizations and relevant features as well as truly representative benchmarks and data sets. We released most of the experimental results, benchmarks and data sets at http://c-mind.org while validating our techniques in the EU FP6 MILEPOST project and during HiPEAC internship at STMicroelectronics
APA, Harvard, Vancouver, ISO, and other styles
37

Bélanger, Mathieu. "Les objets logiques et l'invariance : le statut du programme d'Erlangen dans les approches contemporaines." Thèse, 2004. http://hdl.handle.net/1866/14279.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Legault, Élizabeth. "Analyse logique d’un programme destiné aux jeunes membres de gangs de rue : ReZo." Thesis, 2020. http://hdl.handle.net/1866/24174.

Full text
Abstract:
En raison de leurs activités criminelles, l’identification de bonnes pratiques pour intervenir auprès des jeunes membres de gangs de rue est essentielle pour assurer la protection du public. Les recherches actuelles ne permettent toutefois pas d’identifier de programmes d’intervention efficaces pour cette clientèle (Boxer et al., 2015; Boxer et Goldstein, 2012; Parker et al., 2008 et Sécurité publique Canada, 2007). Le but de la présente étude est l’analyse logique de la théorie du programme d’intervention offert aux jeunes impliqués dans les gangs de rue et hébergés en centre de réadaptation en vertu d’une ordonnance de mise sous garde et de surveillance, à la suite d’une infraction de la Loi sur le système de justice pénale des adolescents (LSJPA). Le programme évalué, nommé ReZo, a pour objectif de susciter la réflexion des jeunes sur leur position dans les gangs de rue pour ultimement réduire leur risque de récidive. L’analyse logique cible deux aspects de la théorie du programme : la sélection des participants et du contenu des ateliers. Les résultats suggèrent que le processus de sélection des participants pourrait être bonifié (objectif 1) en ajustant les domaines de l’Inventaire des risques et des besoins liés aux facteurs criminogènes (IRBC) utilisés et en y incluant la Mesure d’adhésion à la culture de gang de rue (MACg). L’analyse du guide structuré et du modèle logique de ReZo suggère que le programme respecte la majorité des pratiques prometteuses citée dans la littérature quant au contenu des ateliers (objectif 2). Des modifications telles que le choix de thèmes, l’implication de l’entourage et de la famille et l’ajout de mesures d’évaluation sont recommandées.
to their criminal activities, the identification of effective practices for intervening with youth gang members is essential to ensure the protection of the public. However, current studies do not identify effective intervention programs for this clientele ((Boxer et al., 2015; Boxer et Goldstein, 2012; Parker et al., 2008 and Sécurité publique Canada, 2007). The purpose of this study is to analyze the logical reasoning of an intervention program offered to youth involved in street gangs and housed in rehabilitation centres under custody and supervision order, following an offence under the Youth Criminal Justice Act (YCJA). The objective of the evaluated program, called ReZo, is to encourage youth to reflect on their position in street gangs in order to ultimately reduce their risk of recidivism. The theory-based evaluation has two objectives: the logic analysis of the selection of participants and the content of the workshops. The results suggest that the participant selection process could be improved (objective 1) by adjusting the areas of the Inventaire des risques et des besoins liés aux facteurs criminogènes (IRBC) used and by including the Mesure d'adhésion à la culture de gang de rue (MACg). Analysis of ReZo’s structured guide and logic model validated that it meets most of the criteria for good practice in the literature with respect to workshop content (objective 2). Adjustments such as the choice of themes, the involvement of family and friends and the addition of evaluation measures are recommended.
APA, Harvard, Vancouver, ISO, and other styles
39

Zielinski, Lina. "La distinction entre le processus spécifique de l'évaluation de programme et l'application de son instrumentation : une étude de cas des modèles en évaluation de programme." Mémoire, 2007. http://www.archipel.uqam.ca/718/1/M9949.pdf.

Full text
Abstract:
Maintenant que le Programme de formation de l'école québécoise est implanté depuis plusieurs années au niveau primaire, il fait l'objet d'évaluation. Par contre, le domaine de l'évaluation de programme se fait souvent remettre en question par rapport à sa capacité de produire des recommandations pertinentes. Il existe donc un besoin de recherche fondamentale dans le domaine de l'évaluation de programme. Pour améliorer l'évaluation de programme dans le domaine de l'éducation, il est essentiel d'effectuer de la recherche fondamentale dans le domaine de l'évaluation de programme. Fournier (1995) et Hurteau et Houle (2006) ont effectué des recherches qui visaient la pratique en évaluation de programme. Leurs réflexions portaient sur la distinction entre ce qui constitue la pratique et ce qui a été élaboré pour la soutenir. Par contre, il existe une confusion dans la littérature à ce niveau car cette distinction n'a jamais fait l'objet d'une étude empirique. Notre recherche s'inscrit dans cette perspective afin d'établir un cadre de référence pertinent et d'examiner si le processus propre à l'évaluation de programme diffère de l'application de son instrumentation. Nous avons analysé des réponses à un scénario simulé. Ces réponses représentent trois orientations théoriques: méthodes, jugement de valeur et utilisation. Même si ces orientations ne sont pas nécessairement des catégories mutuellement exclusives, chacune s'attarde à une perspective distincte. L'orientation théorique associée aux méthodes utilise une approche expérimentale ou quasi-expérimentale où la rigueur est fondamentale. L'orientation du jugement de valeur souligne l'importance de porter un jugement sur la valeur du programme évalué afin d'offrir l'information nécessaire à une prise de décision. L'orientation théorique de l'utilisation s'attarde à l'utilisation des résultats de l'évaluation afin d'obtenir un changement au niveau organisationnel. Des grilles d'analyse sont utilisées pour identifier les éléments du processus de l'évaluation de programme et une analyse croisée des données quantitatives démontre le taux de présence de chaque élément dans chaque orientation théorique. Ces données sont ensuite appliquées à une analyse de contenue et font l'objet d'une analyse qualitative. Les composantes de l'instrumentation sont aussi appliquées à chaque orientation théorique. Les standards de pratique provenant du Joint Committee servent de cadre de référence pour identifier les variances et les choix méthodologiques sont étudiés à partir de critères prédéterminés. Les résultats démontrent qu'à un niveau global les trois orientations théoriques ont présenté les éléments du processus de l'évaluation de programme. Par contre, des différences ont été identifiées dans l'orientation de l'utilisation. C'est à souhaiter que la présente recherche éclaire notre sujet en stimulant la discussion et de futures études.
APA, Harvard, Vancouver, ISO, and other styles
40

Garavel, Hubert. "Compilation et vérification de programme LOTOS." Phd thesis, 1989. http://tel.archives-ouvertes.fr/tel-00004339.

Full text
Abstract:
LOTOS (Language Of Temporal Ordering Specification) est un langage
de description de systemes paralleles communicants, normalise par l'ISO et le
CCITT afin de permettre la definition formelle des protocoles et des services
de telecommunications. Le langage utilise des types abstraits algebriques pour
specifier les donnees et un calcul de processus proche de CSP et CCS pour
exprimer le controle.

Cette these propose une technique de compilation permettant de traduire
un sous-ensemble significatif de LOTOS vers un modele reseau de Petri
interprete (pouvant servir a produire du code executable) puis vers un
modele automate d'etats finis (permettant la verification formelle de programmes
LOTOS soit par reduction ou comparaison modulo des relations d'equivalence, soit
par evaluation de formules de logiques temporelles).

La methode employee differe des approches usuelles basees sur la
reecriture de termes, qui construisent directement le graphe d'etats
correspondant a un programme LOTOS.
Ici au contraire la traduction est effectuee en trois etapes successives
(expansion, generation et simulation) s'appuyant sur des modeles semantiques
intermediaires (le langage SUBLOTOS et le modele reseau). Elle met en oeuvre
une analyse statique globale du comportement des programmes.
Elle prend en compte les donnees, celles-ci devant etre compilees
au moyen dalgorithmes deja existants.

Ces principes de compilation ont ete entierement implementes dans
le logiciel CAESAR. Les performances obtenues confirment l'interet de la methode.
APA, Harvard, Vancouver, ISO, and other styles
41

Duval, Julie. "Étude descriptive des pratiques évaluatives : recours à la logique de l'évaluation." Mémoire, 2006. http://www.archipel.uqam.ca/1980/1/M9182.pdf.

Full text
Abstract:
L'évaluation de programme se voit remise en question régulièrement au cours des trente dernières années quant à sa capacité à produire un jugement de valeur utile à la prise de décision, et ce, malgré le développement important de cadres conceptuels et de méthodes. Guba (1972) et Scriven (1995) ont émis l'hypothèse que ces critiques pouvaient être imputables au faible recours à la théorie par les praticiens. De ce fait, il devient difficile pour ces derniers d'identifier des critères pertinents et de les appliquer adéquatement. Ce constat soulève la question des assises théoriques qui fondent la démarche évaluative. En 1980, Scriven a proposé un raisonnement fondamental, la logique de l'évaluation, susceptible de structurer cette dernière (Scriven, 1980). D'autres auteurs (Hurteau, 1991; Fournier, 1995; Stake, 2004) ont repris le concept de la logique de l'évaluation en proposant des approches différentes pouvant possiblement compléter la vision de Scriven (1980). L'hypothèse proposée par Guba (1972) et Scriven (1995) n'ayant pas fait l'objet d'une étude, dont les résultats auraient pu la confirmer ou l'infirmer, la présente recherche vise précisément à décrire dans quelle mesure les praticiens en évaluation de programme réfèrent à la logique de l'évaluation pour structurer leur démarche évaluative. Pour ce faire, 69 articles tirés de trois revues spécialisées dans le domaine ont été analysés au moyen d'une griIle descriptive. Les résultats de ce mémoire semblent démontrer que les praticiens présentent leur démarche en ayant effectivement recours aux composantes de la logique de l'évaluation. Toutefois, il est impossible de déterminer si celle-ci a servi de cadre de référence dans la planification et la réalisation de la démarche évaluative, ou si elle a seulement servi de cadre pour la rédaction à des fins de publication. Dans tous les cas, il ressort que cette structure peut être considérée comme une pratique exemplaire et, en soi, cela demeure un constat susceptible d'alimenter de futures recherches quant aux aspects problématiques de la pratique évaluative. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évaluation de programme, Logique de l'évaluation, Modèles d'évaluation, Critères, Standards, Jugement.
APA, Harvard, Vancouver, ISO, and other styles
42

Bossiroy, Amélie. "Mieux comprendre la production d'un jugement satisfaisant en évaluation de programme." Mémoire, 2009. http://www.archipel.uqam.ca/2213/1/M10951.pdf.

Full text
Abstract:
L'évaluation de programme est de plus en plus utilisée pour mesurer la qualité de programmes de tous genres. Paradoxalement, elle fait face à de constantes et nombreuses critiques, notamment sur sa fonction première, soit générer un jugement suffisamment crédible pour être accepté des clients et aider au processus de prise de décisions des activités futures du programme. D'ailleurs, l'étude de Toulemonde (2005) révèle que les clients de l'évaluation utilisent très peu les résultats issus des rapports d'évaluation parce qu'ils ne répondent pas à leurs attentes. Bien que durant les trente dernières années, plusieurs théoriciens ont proposé des processus servant à guider et à structurer la démarche évaluative, ceux-ci ne trouvent pas écho dans la pratique (Stake et al., 1997). Stake et Schwandt (2006) jettent un nouveau regard sur la façon de générer un jugement crédible en introduisant les notions de qualité mesurée et de qualité appréciée. La présente étude, de type exploratoire, appuie son corpus théorique sur l'apport de ces deux auteurs et tente de recueillir la perception des personnes directement concernées par l'évaluation sur les éléments et les procédures liés à la pratique évaluative qui sont requis pour générer un jugement satisfaisant. Au total, six entrevues individuelles ont été réalisées auprès d'évaluateurs chevronnés et de clients de l'évaluation sélectionnés de façon intentionnelle. Les résultats de cette étude semblent démontrer qu'un jugement satisfaisant doit s'appuyer sur deux types d'arguments, soit sur des données planifiées, c'est-à-dire recueillies à partir d'une méthodologie bien définie et aussi sur des informations pertinentes qui émergent au cours de l'évaluation. De plus, le jugement doit être utile aux détenteurs d'enjeux, surtout quand vient le temps de prendre des décisions sur les orientations futures du programme. Ensuite, les répondants soutiennent que le jugement doit être explicite pour que les personnes qui le reçoivent le comprennent facilement. Enfin, les résultats de l'étude font aussi ressortir l'importance de solliciter la participation des différents détenteurs d'enjeux tout au long de la démarche évaluative afin de recueillir les diverses perspectives aussi bien au niveau des besoins que des opinions. Ainsi, il semble que les conclusions de notre étude appuient les propos de Stake et Schwandt (2006), à savoir l'urgence que la pratique en évaluation de programme reconnaisse autant l'espace scientifique que l'espace politique dans la formulation d'un jugement. En d'autres termes, une vision plus démocratique de l'évaluation où les détenteurs d'enjeux occupent un rôle important dans le processus évaluatif. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Jugement évaluatif, Évaluation de programme, Pratiques évaluatives, Raisonnement évaluatif.
APA, Harvard, Vancouver, ISO, and other styles
43

Guimond, Jean-François. "Développement et validation de contenu d'un programme de rééducation du membre supérieur post AVC en ergothérapie." Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9505/1/eprint9505.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Mounier, Georges. "un lambda calcul intuitioniste avec exceptions." Phd thesis, 1999. http://tel.archives-ouvertes.fr/tel-00093187.

Full text
Abstract:
La thèse décrit un lambda calcul typé étendu par un traitement des exceptions. Ses principales propriétés sont : confluence, forte normalisation, conservation du type (dans une forme parallélisée de réduction). Seuls les termes équivalents aux entiers de Church ont le type entier. La comparaison avec le système d'exceptions du langage Caml est développée. Mais le plus remarquable est que la logique du système n'est pas la logique classique mais la logique intuitionniste.
APA, Harvard, Vancouver, ISO, and other styles
45

Guimond, Jean-François. "Développement et validation de contenu d’un programme de rééducation du membre supérieur post AVC en ergothérapie." Thesis, 2020. http://hdl.handle.net/1866/25188.

Full text
Abstract:
Introduction. La thérapie axée sur la répétition de tâches fonctionnelles est préconisée pour la réadaptation du membre supérieur à la suite d’un accident vasculaire cérébral (AVC). Toutefois, aucun programme d’intervention n’opérationnalise l’ensemble des composantes clés du TOT en une démarche clinique valide de rééducation du membre supérieur post AVC en ergothérapie. Objectifs. 1) Établir la validité de contenu d’un programme de rééducation du membre supérieur post AVC en ergothérapie et 2) proposer un modèle logique de l’intervention qui fait consensus auprès d’experts et d’usagers. Méthodes. Un modèle logique d’un programme de rééducation du membre supérieur post AVC en ergothérapie a été développé, puis soumis à deux méthodes de recherche pour valider le contenu et obtenir un consensus d’experts et d’usagers : 1) Méthode Delphi : 14 experts ont examiné des capsules audiovisuelles illustrant le programme d’intervention et ont répondu à deux questionnaires pour valider les objectifs, la nature de l’intervention, les ressources, les activités et les extrants; 2) Technique de groupe nominal : six usagers ayant un vécu expérientiel de l’intervention ont généré les effets ciblés. L’indice de validité de contenu, deux indices d’accord interjuges et l’analyse de contenu ont été utilisés pour analyser les données. Résultats. Près de 93 % du contenu du programme de rééducation du membre supérieur post AVC en ergothérapie obtient un indice de validité satisfaisant, dont 82 % qui font consensus auprès d’experts et d’usagers dans un modèle logique révisé. Conclusion. Le modèle logique révisé propose une vision commune, quoiqu’incomplète, d’un programme de rééducation du membre supérieur post AVC en ergothérapie basé sur le TOT. Les activités et les extrants de l’évaluation devront faire l’objet de validation lors d’une phase subséquente d’implantation. Un transfert de connaissances sur les moyens pour favoriser le sentiment d’efficacité personnelle est aussi à prévoir pour réévaluer son rôle dans le programme d’intervention.
Background. Task-Oriented Training (TOT) is the recommended approach for upper extremity rehabilitation after a stroke. To date, no program have operationalized all the key components of TOT into a valid upper extremity clinical rehabilitation process post stroke in occupational therapy. Objectives. 1) To determine the content validity of an upper extremity rehabilitation program post stroke in occupational therapy and 2) to propose a logic model reaching consensus among experts and patients. Methods. A logic model of an upper extremity rehabilitation program post stroke in occupational therapy was developed and validated. Two research methods were used to validate the content and to achieve a consensus of experts and patients : 1) Delphi method : 14 experts examined audiovisual capsules of the intervention and completed two questionnaires to validate the objectives, the nature of the intervention, the resources, the activities and the outputs; 2) Nominal group technique : six patients with experience of the intervention generated the outcomes. The content validity index, two interrater agreement statistics and a content analysis were used for data analysis. Results. Almost 93 % of the content of the upper extremity rehabilitation program post stroke in occupational therapy obtained a satisfactory validity index, including 82 % reaching consensus among experts and patients in a revised logic model. Conclusion. The revised logic model now offers a common, albeit incomplete, vision of an upper extremity rehabilitation program post stroke based on the TOT in occupational therapy. Activities and outputs of the evaluation should be validated during a subsequent implementation phase. Knowledge translation on the modalities to promote self-efficacy is also to be planned to reassess its role in the intervention program.
APA, Harvard, Vancouver, ISO, and other styles
46

Osseiran, Adham. "Définition, étude et conception d'un microprocesseur autotestable spécifique: COBRA." Phd thesis, 1986. http://tel.archives-ouvertes.fr/tel-00320884.

Full text
Abstract:
Description des différentes étapes de la conception d'un microprocesseur pour le contrôle des automatismes de sécurité, en particulier pour les systèmes de transport. Ce microprocesseur est autotestable, c'est-à-dire capable de détecter ses propres erreurs. La conception du circuit est basée sur les hypothèses de pannes au niveau analytique dans la technologie NMOS. Les blocs fonctionnels «Strongly Fault Secure» et les contrôleurs «Strongly Code Disjoint» sont à la base des circuits «Self-checking», dits autotestables. Le circuit COBRA démontre la faisabilité d'un microprocesseur autotestable. COBRA gère indépendamment 19 signaux différents, date des événements externes, mesure des fréquences, surveille 14 entrées logiques et possède 7 sorties indépendantes. Le programme d'application de COBRA est contenu dans une mémoire morte programmable externe de 16 Koctets adressés par 14 bits multiplexés sur le bus interne de 8 bits. COBRA contient également une liaison série, une mémoire à accès direct de 64 octets et 3 temporisateurs de 14 bits indépendants ainsi qu'une unité arithmétique et logique de 8 bits, COBRA exécute un jeu de 43 instructions
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography