Academic literature on the topic 'Machine de langage de haut niveau'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Machine de langage de haut niveau.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Machine de langage de haut niveau"

1

Moser, David. "Sze-chuan Pepper and Coca-Cola." Babel. Revue internationale de la traduction / International Journal of Translation 37, no. 2 (1991): 75–95. http://dx.doi.org/10.1075/babel.37.2.03mos.

Full text
Abstract:
Cet article passe en revue de nombreux problèmes divers posés par la traduction en chinois de Gödel, Escher, Bach de Douglas R. Hofstadter, livre dont le thème central est le rapport entre la démonstration métamathématique de Gödel de l'incomplétude de l'arithmétique et l'esprit, la conscience, et l'intelligence artificielle. Le livre est organisé en dialogues suivis de chapitres techniques ou philosophiques. On y trouve un nombre très important de jeux de mots, d'auto-références, de jeux structurels, de sigles, d'acrostiches, et de relations réciproques entre forme et fond, sans parler de discussions portant sur la prose "non-sensique", sur le textes générés par ordinateur et sur la traduction. L'article commence par une discussion de quelques difficultés de traduction de certains jeux de mots en un système d'écriture non-alphabétique. Le texte de départ contient d'innombrables références et d'exemples tirés de la culture américaine qui, traduits tels quels, ne seraient nullement compréhensibles par des lecteurs chinois. Par conséquence, les traducteurs ont décidé de les remplacer par des "équivalents" dans la culture chinoise. Les processus qui les ont amenés à leurs choix sont décrits en détail. De plus, chaque dialogue a un caractère "auto-référentiel", c'est-à-dire que sa structure est le plus souvent le reflet de son contenu. Par exemple, la discussion des personnages de l'un des dialogues porte sur les acrostiches: il y a donc dans ce dialogue un acrostiche caché au niveau des répliques. Le dilemme tra-ductologique classique se voit surgir: devrait-on garder la structure du dialogue au détriment de son contenu explicite ou l'inverse? Une partie importante de l'article est consacrée à la discussion de la fidélité de "haut niveau" (c'est-à-dire, structurelle) d'une traduction par rapport à sa fidélité de "bas niveau" (détails explicites, voire superficiels). Ensuite, sont examinés les problèmes philosophiques posés par la traduction d'un texte produit par ordinateur: en particulier, dans quelle mesure peut-on attribuer un "sens" a un tel texte vu qu'il a été produit par une machine? Cet article commente également les difficultés rencontrées lors des tentatives des traducteurs de rendre en chinois les subtilités de certains passages qui frôlent, à la Lewis Carroll, les limites du non-sens ou qui regorgent de termes inventés, d'allusions vagues ou d'expressions compliquées, obscures ou opaques.
APA, Harvard, Vancouver, ISO, and other styles
2

Roy, Marie-Andrée. "Les revendications féministes dans le champ religieux québécois : bilan et prospective." Communications libres 21, no. 2 (2007): 433–40. http://dx.doi.org/10.7202/027284ar.

Full text
Abstract:
RÉSUMÉ Les femmes engagées dans l'Église constituent les piliers de la vie ecclésiale mais restent des sujettes mineures dans cette institution qui ne leur reconnaît pas, dans les faits, un statut d'égalité avec les hommes. Depuis plus de vingt ans, elles revendiquent des transformations : elles veulent participer à la rédaction des discours officiels, obtenir de meilleurs conditions de travail, mettre de l'avant l'usage du langage inclusif dans les liturgies. Ces femmes, qui détiennent dans une proportion déplus en plus importante une formation en théologie, s'efforcent de conscientiser le clergé à la nécessité de développer avec elles des rapports égalitaires qui impliquent un véritable partage des pouvoirs et des responsabilités. Compte tenu du haut niveau de résistance au changement, il faudrait sans doute que ces femmes acceptent de désobéir à l'ordre clérical et qu'elles osent transgresser les règles de fonctionnement sexiste si elles veulent parvenir à mettre en place une ecclésia égalitaire.
APA, Harvard, Vancouver, ISO, and other styles
3

Assaraf, Albert. "Tous les performatifs en deux forces. Introduction au « système JP »." Hors dossier 39, no. 1 (2011): 111–20. http://dx.doi.org/10.7202/1006732ar.

Full text
Abstract:
Cet article tente de pousser jusqu’aux ultimes conséquences l’hypothèse selon laquelle les performatifs n’ont qu’une fonction : lier. Pour ce faire, il se propose de retrouver la plupart des performatifs juste en combinant les deux uniques constituants du lien : la jonction (con-jonction ou dis-jonction) déterminée par un axe horizontal intérieur/extérieur, et la position déterminée par un axe haut/bas, d’où le « système JP ». Il ressort de cette combinatoire jonction/position que les performatifs obéissent à sept grandes formes de jeux relationnels, reproductibles à souhait par un langage machine – chose aujourd’hui impossible avec les catégories d’Austin et Searle. Sept grandes formes de jeux rendent désormais envisageable, selon le voeu de Greimas, une fusion harmonieuse entre pragmatique et sémiotique.
APA, Harvard, Vancouver, ISO, and other styles
4

Laverdière, Roxanne, Lye-Ann Robichaud, Annie Toulouse-Fournier, Audrey Marcoux, and Philip Jackson. "Influence du genre sur la perception de l'empathie à l'aide d'avatars." Psycause : revue scientifique étudiante de l'École de psychologie de l'Université Laval 10, no. 2 (2020): 13–15. http://dx.doi.org/10.51656/psycause.v10i2.40770.

Full text
Abstract:
L’empathie, soit la capacité de comprendre et partager les émotions d’autrui, peut s’exprimer par le langage non verbal, notamment par l’entremise d’avatars dans les plateformes virtuelles en clinique et en recherche. Cependant, l’influence du genre dans l’interaction humain-avatar demeure encore inconnue. Cette étude en ligne vise à évaluer si la perception de l’empathie varie en fonction du genre du participant (homme/femme) et de la représentation de l’avatar (masculin/féminin), indépendamment des comportements non verbaux affichés par les avatars (Contact visuel; Expression faciale congruente; Inclinaison du tronc). Cent vingt adultes de la population générale âgés entre 18 et 60 ans ont été recrutés (76 s’identifiant comme une femme). Ils ont visionné des vidéos d’avatars (deux masculins et deux féminins) affichant différents comportements non verbaux, puis ont évalué l’empathie qu’ils percevaient. Les résultats de l’ANOVA factorielle mixte montrent que les participants perçoivent significativement plus d’empathie lorsqu’exprimée par des avatars féminins, ce qui est congruent avec les stéréotypes liés aux genres. Les résultats montrent également que le genre du participant n’influence pas le niveau l’empathie perçue. Les données obtenues montrent l’importance d’une représentation d’avatar féminin et permettront d’améliorer les plateformes virtuelles existantes, en plus d’améliorer les connaissances sur les interactions empathiques humain-machine.
APA, Harvard, Vancouver, ISO, and other styles
5

Dupont12, Benoît. "La régulation du cybercrime comme alternative à la judiciarisation." Criminologie 47, no. 2 (2014): 179–201. http://dx.doi.org/10.7202/1026733ar.

Full text
Abstract:
Les botnets, ou réseaux d’ordinateurs compromis par des pirates informatiques, représentent à l’heure actuelle la menace criminelle la plus sérieuse, servant de support à la fraude bancaire, aux attaques distribuées par déni de service (DDoS), ou encore à la fraude au clic. Au cours des dernières années, deux approches distinctes ont été privilégiées pour combattre ces botnets : d’une part, les services de police ont procédé à l’arrestation fortement médiatisée de quelques pirates de haut vol et au démantèlement de leurs infrastructures de commandement et de contrôle. D’autre part, dans certains pays, et notamment au Japon, en Corée du Sud, en Australie, mais aussi en Hollande ou en Allemagne, les gouvernements ont favorisé l’émergence de partenariats public-privé impliquant des fournisseurs d’accès et des entreprises de sécurité informatique. Dans une démarche régulatoire, ces initiatives visent à identifier les ordinateurs infectés, à notifier leurs propriétaires et à aider ces derniers à nettoyer leur machine. Cet article a donc pour objectif de comparer les deux approches (judiciarisation vs régulation), en essayant notamment d’évaluer les effets produits par chacune d’elles sur le niveau général de sécurité de l’écosystème numérique.
APA, Harvard, Vancouver, ISO, and other styles
6

Bonham, Oliver, Bruce Broster, David Cane, Keith Johnson, and Kate MacLachlan. "The Development of Canada's Competency Profile for Professional Geoscientists at Entry-to-Practice." Geoscience Canada 44, no. 2 (2017): 77–84. http://dx.doi.org/10.12789/geocanj.2017.44.118.

Full text
Abstract:
Competency-based assessment approaches to professional registration reflect the move by professions, both in Canada and around the world, away from traditional credentials-based assessments centred on a combination of academic achievements and supervised practice time. Entry to practice competencies are the abilities required to enable effective and safe entry-level practice in a profession. In 2012, Geoscientists Canada received funding from the Government of Canada’s Foreign Credentials Recognition Program. A central component of the funding involved the development of a competency profile to assist in assessment for licensing in the geoscience profession. Work concluded with the approval of the Competency Profile for Professional Geoscientists at Entry to Practice by Geoscientists Canada in November 2014. The Competency Profile comprises concise statements in plain language, setting out the skills and abilities that are required to be able to work as a geoscientist, in an effective and safe manner, independent of direct supervision. It covers competencies common to all geoscientists; competencies for the primary subdisciplines of geoscience (geology, environmental geoscience and geophysics); and a generic set of high level competences that can apply in any specific work context in geoscience. The paper is in two parts. Part 1 puts the concept of competencies in context and describes the approach taken to develop the profile, including: input from Subject Matter Experts (practising geoscientists representing a diverse sampling of the profession); extensive national consultation and refinement; and a validation procedure, including a survey of practising Canadian geoscientists. Part 2 introduces the profile, explains its structure, and provides examples of some of the competencies. The full competency profile can be obtained from the Geoscientists Canada website www.geoscientistscanada.ca. Future work will identify specific indicators of proficiency related to each competency and suggest appropriate methodologies to assess such competencies. It will also involve mapping the profile to the existing Canadian reference standard, Geoscience Knowledge and Experience Requirements for Professional Registration in Canada.RÉSUMÉLes approches d'évaluation basées sur les compétences en vue de l'inscription professionnelle reflètent l'abandon par les professions, tant au Canada que partout dans le monde, des évaluations classiques basées sur les titres de compétences et axées sur une combinaison de réalisations académiques et de temps de pratique supervisée. Les compétences au niveau débutant sont les capacités requises pour une pratique efficace et en toute sécurité audit niveau dans une profession. En 2012, Géoscientifiques Canada a reçu un financement du Programme de reconnaissance des titres de compétences étrangers du gouvernement du Canada. Une composante centrale du financement incluait l’élaboration d'un profil des compétences pour faciliter l'évaluation de la délivrance de permis dans la profession de géoscience. Ce travail a été conclu en novembre 2014 avec l'approbation par Géoscientifiques Canada du Profil des compétences pour les géoscientifiques professionnels au niveau débutant. Le profil des compétences comprend des déclarations concises dans un langage clair, définissant les compétences et les capacités requises pour exercer efficacement, en toute sécurité et indépendamment de toute supervision directe, en tant que géoscientifique. Il couvre les compétences communes à tous les géoscientifiques; les compétences pour les sous-disciplines primaires de la géoscience (géologie, géoscience environnementale et géophysique); et un ensemble générique de compétences de haut niveau pouvant s'appliquer dans tout contexte de travail spécifique en géoscience. Le document comporte deux parties. La 1ère partie met en contexte le concept de compétences et décrit l'approche adoptée pour élaborer le profil, y compris : les contributions d'experts dans le domaine (géoscientifiques professionnels représentant un échantillonnage diversifié de la profession); de vastes consultations et perfectionnements à l'échelle nationale; et une procédure de validation, incluant une enquête auprès des géoscientifiques professionnels canadiens. La 2ème partie présente le profil, explique sa structure et fournit des exemples pour certaines des compétences. Le profil des compétences complet est disponible sur le site web de Géoscientifiques Canada www.geoscientistscanada.ca. Les travaux futurs identifieront des indicateurs spécifiques d’aptitude liés à chaque compétence et suggèreront des méthodologies appropriées pour leur évaluation. Ils comprendront également la mise en correspondance du profil avec la norme de référence canadienne existante et les exigences en matière de Connaissances et expérience des géosciences requises pour l'inscription à titre professionnel au Canada.
APA, Harvard, Vancouver, ISO, and other styles
7

Tremblay, Klaire. "La technologie langagière au Secrétariat d’État du Canada : une réalité quotidienne." Meta 37, no. 4 (2002): 761–69. http://dx.doi.org/10.7202/004506ar.

Full text
Abstract:
Résumé Depuis le début des années 70, le Canada montre un vif intérêt pour tout ce qui touche le traitement électronique du langage. Le projet TAUM MÉTÉO et la banque de terminologie TERMWM en sont d'excellents exemples. Le Secrétariat d'État se livre maintenant à l'essai, en milieu opérationnel, de deux outils de traduction haute technologie, soit du logiciel de TAO LOGOS et du poste de travail du traducteur (PTT). Les expériences menées jusqu'à ce jour ont donné lieu à diverses évaluations techniques ainsi qu'à des études linguistiques et ergonomiques, notamment à l'établissement d'une typologie des textes pouvant se prêter au traitement machine. Le Secrétariat d'État travaille dorénavant en étroite collaboration avec la société Logos et avec le centre de recherche responsable de la conception du PTT afin d'améliorer les prototypes à la lumière des besoins et des recommandations des traducteurs. Outre les deux grands projets-pilotes susmentionnés, le Secrétariat d'État vient également de doter l'ensemble de ses 800 traducteurs de micro-ordinateurs haut de gamme et il procède actuellement à la création d'une trousse d'ouvrages électroniques. De plus, il collabore à la mise au point d'une station de travail pour terminologue appelée LATTER (L'ATelier du TERminologue), dont le premier prototype sera mis à l'essai à l'été 1992. Toutes ces entreprises tendent vers un but à long terme, soit l'intégration en un seul et même système des meilleures aides à la traduction disponibles sur le marché. C'est ainsi que le traducteur de demain pourra, de son poste de travail, communiquer directement avec son client, consulter toutes les sources de documentation et les bases de données terminologiques électroniques nécessaires, confier la traduction de certains passages à un logiciel de traduction et, le cas échéant, procéder à l'éditique de son texte. Les possibilités sont immenses dans le domaine du traitement des langues naturelles, et le Secrétariat d'État du Canada déploie des efforts soutenus afin de demeurer à la tête du peloton.
APA, Harvard, Vancouver, ISO, and other styles
8

PEYRAUD, J. L., and F. PHOCAS. "Dossier " Phénotypage des animaux d'élevage "." INRAE Productions Animales 27, no. 3 (2014): 179–1890. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3065.

Full text
Abstract:
Avant-propos
 La demande mondiale en produits d’origine animale est en forte expansion1 et l’élevage est l’une des activités agricoles les plus fortement créatrices d’emploi et de valeur ajoutée, tant au niveau de la production et des services qu’elle utilise, que des filières de produits animaux. Mais dans le même temps, l’élevage doit faire face à des enjeux sociétaux qui nécessitent des évolutions importantes dans les modes de production : besoin de compétitivité encore accru, méthodes d’élevage contestées vis-à-vis des atteintes à l’environnement, du respect du bien-être animal et de l’usage des médicaments. Il s’agit de réfléchir ces défis au niveau européen et mondial. Produire plus, mieux et à moindre coût doit contribuer à assurer la sécurité alimentaire mondiale et à répondre aux attentes européennes en termes de systèmes de production et de marchés très diversifiés. L’Europe a ici une responsabilité toute particulière car si elle ne peut pas nourrir le monde, il est de sa responsabilité, en tant que région où la demande sociale est aujourd’hui la plus élevée, de montrer comment concilier production et environnement.
 Outre les innovations et les adaptations des systèmes d’élevage (cf. Numéro spécial de la revue « Quelles innovations pour quels systèmes d’élevage ? », Ingrand S., Baumont R. (Eds). INRA Prod. Anim., 27, 2), les réponses passent aussi par la recherche d’animaux qui soient d’une part, plus efficients pour transformer leur ration et plus faciles à élever dans une large gamme de conditions climatiques et de systèmes d’élevage et, d’autre part, adaptables face à des aléas climatiques, sanitaires ou économiques tout en préservant la santé, le bien-être et la qualité des produits. Par le passé, la recherche de la maximisation des performances de production (ex : vitesse de croissance, quantité de lait par lactation…) a conduit à des animaux de plus en plus spécialisés. Dans la plupart des filières, cette maximisation s’est accompagnée d’une dégradation des autres aptitudes d’élevage, aujourd’hui source d’inefficience en élevage. La recherche d’une plus grande robustesse (définie comme la capacité pour un animal d’exprimer son potentiel de production dans une large gamme d’environnements sans pour autant compromettre sa santé et son bien-être) devient une priorité. Dans le même temps,l’accès à des techniques d’exploration fonctionnelle toujours plus performantes, les innovations en cours d’appropriation ou à venir dans le domaine de la génomique ouvrent des perspectives d’investigation nouvelles plus précises.
 Dans ce contexte d’évolution des demandes et des possibilités d’investigation, les projets de recherche en sciences animales doivent être plus systémiques, prédictifs et permettre d’établir des relations fonctionnelles de plus en plus fines entre le phénotype des animaux, leur génotype et le milieu dans lequel il s'exprime. Face au développement spectaculaire des connaissances sur le génome, il y a un manque criant de connaissances sur l’expression des phénotypes, connaissances qui devraient permettre de répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : i) une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience de la production et la robustesse des génotypes, et ii) un élevage de précision qui valorise la variabilité individuelle des animaux pour gagner en efficience et en résilience à l’échelle du troupeau, ou pour améliorer la conduite des animaux d’un génotype donné. En effet, d’un coté les progrès réalisés par la sélection génomique permettent aujourd’hui de repenser les critères de sélection et de les diversifier tout en raccourcissant les délais entre la définition des objectifs et l’amélioration effective des cheptels, mais cette sélection entraine de nouveaux besoins de phénotypage car elle nécessite la caractérisation d’unepopulation de référence. D’un autre coté, la connaissance plus fine de l’animal associée aux technologies en émergence de l’élevage de précision permettra de mieux piloter la conduite d’élevage pour améliorer l’efficience de l’alimentation ou de la reproduction par une approche individuelle à l’animal, ainsi que par la production d’alertes à destination de l’éleveur pour un diagnostic précoce des troubles permettant d’anticiper les ajustements requis. Le phénotypage est ainsi l’un des principaux défis que doit relever les recherches en production animale et a été reconnu comme tel par l’INRA. Deux types de phénotypage peuvent être envisagés : le phénotypage des caractères d’intérêt socio-économique et le phénotypage de caractères plus élémentaires. Les phénotypes d’intérêt socio-économique constituent la finalité recherchée. Ils résultent de mécanismes faisant appel à des régulations complexes, ils sont d’autant plus onéreux à mesurer qu’il s’agit de critères zootechniques qui doivent être observés sur des pas de temps longs. La recherche de phénotypes plus élémentaires et plus proches du mécanisme causal rend plus facile l’identification des gènes responsables. Ce phénotypage fin implique de réaliser des mesures particulièrement approfondies et à des échelles élémentaires (au niveau moléculaire, cellulaire, tissulaire…) des caractéristiques biologiques de l’animal qui expliquent un phénotype complexe observé à l’échelle de l’animal. Le phénotypage à haut débit signifie qu’une méthode de mesure des phénotypes fiable, automatisable et rapide est établie de sorte que le processus de mesure permette de générer un grand nombre de données dans un laps de temps court. Le haut débit peut s’appliquer au phénotypage fin tout comme à celui des caractères d’intérêt zootechnique. Les contributions significatives qui pourront être attendues d’un phénotypage animal fin et à haut débit concernent la biologie prédictive, à savoir la prédiction des performances à partir de caractères simples observables précocement, nécessaire notamment à la gestion des produits, à la conduite de l’élevage et à la sélection animale.
 Ce dossier propose le fruit d’une réflexion globale des chercheurs de l’INRA sur les perspectives qu’offre le phénotypage des animaux pour répondre aux enjeux des productions animales. Cette réflexion a eu pour objectif de définir les grands enjeux de connaissance autour du phénotypage animal et de faire émerger les questions de recherches prioritaires, transversales ou spécifiques aux différentes filières animales ainsi que les verrous techniques qui sont soulevés. Cette réflexion a été conduite par un groupe de douze chercheurs2 des départements de « Génétique Animale », « Physiologie Animale et Systèmes d’Elevage » et « Santé Animale » travaillant dans des disciplines et sur des espèces variées, missionné par la Direction Scientifique Agriculture de l’INRA. La réflexion de ce groupe s’est appuyée sur celle d’un collectif plus large de chercheurs INRA travaillant sur les animaux d’élevage par le biais d’un séminaire organisé en mai 2013 ainsi que par la rédaction partagée des articles de ce dossier.
 L’amélioration de la robustesse des animaux d’élevage étant un objectif central, le premier article de ce dossier développe une approche systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales pour la sélection et pour la conduite de l’élevage. Les recherches sur le phénotypage doivent être accompagnées d’une ontologie générique c’est-à-dire d’une représentation et d’un langage communs pour partager les données et les connaissances, ainsi que l’explicite le second article de ce numéro. L’objet des trois synthèses suivantes est de mettre en perspective les fronts de science (phénotypage du microbiote intestinal), les enjeux de connaissance et les verrous techniques encore à lever pour permettre des productions animales de qualité (phénotypage de la qualité des produits) et en quantité (phénotypage de l’efficacité alimentaire), à moindres coûts économique et environnemental. 
 1 Selon la FAO et l’OCDE, la progression de la consommation de protéines d’origine animale sur la planète devrait se poursuivre au rythme de + 2 à + 3%/an au cours de cette décennie. Sur la période 2000-2050, la consommation totale des viandes devrait progresser de l’ordre de + 70% pour une population en augmentation de + 20%. Selon les mêmes sources et pour la même période la consommation de lait et produits laitiers dans les pays émergents devrait passer de 45 à 78 kg par habitant.
APA, Harvard, Vancouver, ISO, and other styles
9

Leppänen, Anneli. "Improving the Mastery of Work and the Development of the Work Process in Paper Production." Relations industrielles 56, no. 3 (2002): 579–609. http://dx.doi.org/10.7202/000083ar.

Full text
Abstract:
Résumé Les machines de fabrication du papier sont les plus grandes installations de production en continu au monde et la fabrication de la pâte, en tant que processus de travail, est particulièrement complexe. Le processus de fabrication du papier étant rapide, les conséquences des modifications apportées dans le premier temps de fabrication (partie humide de la machine), notamment au niveau de la concentration de la masse ou du réglage de la tête de la machine, n’apparaissent souvent que dans les paramètres de qualité du papier parvenus dans la « partie sèche » de la machine. Par conséquent, la fabrication du papier ne repose pas sur un ouvrier isolé, mais bien sur un groupe d’ouvriers. Tous ceux qui travaillent sur une machine et qui surveillent le processus au moyen des dispositifs informatiques du système de fonctionnement automatisé doivent émettre des hypothèses quant à l’état du processus et des actions à entreprendre. Ils doivent également communiquer aux autres membres du groupe leurs observations, leurs actions ou leurs décisions. Les retards sont fréquents et à l’occasion, il peut s’écouler plusieurs heures avant que les effets d’une modification dans les paramètres se manifestent. Les équipes doivent donc pouvoir compter sur des moyens efficaces pour se transmettre l’information et, conséquemment, avoir une même compréhension des concepts de la fabrication du papier. Les pratiques visant à créer et à améliorer les compétences professionnelles dans les moulins à papier ont beaucoup changé et plusieurs problèmes associés à des pratiques de formation inadéquates ont été constatés. Des programmes ont été élaborés dans le but de supporter l’amélioration de la maîtrise du processus de travail des ouvriers et de permettre le développement du processus de travail lui-même. Jusqu’à maintenant, la méthodologie a été appliquée sur environ 15 des 100 machines de fabrication du papier en Finlande. Les programmes de développement sont basés sur l’analyse des processus de production et du travail. L’analyse de ces processus nécessite la prise en compte des éléments de l’activité humaine au travail, des outils et de la division du travail. De plus, les modes d’action de l’équipe de travail dans différentes situations, la coopération des sujets à l’intérieur du processus de travail et des tâches y étant associées comme la maintenance ou le contrôle de la qualité sont également analysés. Pour y arriver, les chercheurs définissent des catégories ou identifient des questions clés en construisant des modèles. Ces catégories sont basées sur des analyses préliminaires du processus de travail de même que sur des entrevues et des observations avec le travailleur en activité. Lors de l’élaboration du programme, les participants doivent procéder à une analyse approfondie des processus de production et du travail. Les équipes doivent verbaliser et élaborer les différents modèles pouvant rendre compte de chacune des parties constituant le procédé de travail. Au cours de ce processus, les équipes apprennent à utiliser les connaissances disponibles dans le groupe. Les compétences et l’expertise du directeur de la production, de l’ingénieur des procédés de travail, des experts des procédés chimiques, des experts des systèmes de fonctionnement automatisé des opérations et des agents de marketing peuvent également être sollicitées. Quatre sessions de deux jours sont nécessaires pour élaborer le programme. Chaque session doit être tenue deux fois afin de permettre la participation des représentants de tous les quarts de travail de l’organisation. Les résultats des programmes de développement ont été évalués à plusieurs niveaux. La principale cible de ces programmes est d’améliorer la maîtrise conceptuelle du travail. Le premier niveau d’évaluation concerne l’apprentissage par la mesure de la maîtrise conceptuelle du travail et des perturbations possibles de même que le potentiel d’apprentissage que représentent les propositions de développement. Dans chaque programme de développement, plusieurs propositions de développement sont soulevées. Elles sont analysées en fonction des buts visés et du contenu du développement proposé. Les connexions entre la maîtrise objective et subjective du travail, à savoir l’évaluation que les ouvriers font de leur travail et le bien-être exprimé, et leur développement durant le programme ont aussi été étudiés. Ces connexions sont utilisées pour évaluer les conséquences du programme de développement sur les métacognitions traitant avec les facteurs des réactions subjectives, comme la satisfaction ou le stress au travail. Dans cet article, les résultats de deux études complémentaires concernant les programmes de développement sont abordés. Ils révèlent que la maîtrise conceptuelle du processus de fabrication du papier peut être considérablement améliorée à l’aide d’un programme de développement basé sur une analyse systématique et un modelage du processus de travail. Les résultats indiquent également que l’analyse du processus actuel de travail est un moyen adéquat pour favoriser son développement. En effet, dans chacune des études considérées, plus de cent propositions ont été formulées pour améliorer le processus de travail. Les propositions de développement portent autant sur le développement technique que sur la coopération entre les différents groupes de professionnels. Elles touchent donc le processus de travail en entier. De plus, elles représentent les besoins actuels de développement dans le processus de travail, en plus d’être des sources d’information importantes pour débuter des actions de développement. Les propositions de développement ont également été analysées du point de vue du potentiel d’apprentissage qu’elles représentent. La majorité des propositions visent essentiellement le développement du processus de production technique, c’est-à-dire une simple adaptation au contexte. De telles propositions représentent uniquement le niveau inférieur d’ap-prentissage. Cependant, les propositions visant à améliorer les modes d’action de l’équipe ou à augmenter la maîtrise cognitive du processus indiquent que les participants considèrent leur propre activité comme un objet de développement. Le besoin de comprendre le processus de travail et ses lois a clairement augmenté, démontrant ainsi une certaine augmentation de la motivation à travailler dans le nouveau contexte. Cette étude a également voulu vérifier si le bien-être au travail nécessite des caractéristiques de travail positives ainsi qu’une bonne maîtrise conceptuelle du processus de travail. Les rapports présumés ont émergé seulement à la suite du programme de développement. En effet, après le programme, un haut niveau de maîtrise des perturbations pouvant survenir en cours de production a été associé à la satisfaction. Dans l’analyse de régression, 72 % de la variance de la satisfaction au travail était expliquée par la maîtrise de ces perturbations de la production ainsi que par une évaluation positive du défi au travail et une attitude active face au développement du travail. Le programme de développement a semblé réorganiser les bases d’évaluation des sujets, spécialement en regard avec leurs qualifications actuelles et leurs évaluations subjectives. Les participants ont appris à évaluer les relations entre leurs propres compétences et les besoins découlant du processus de travail, indiquant ainsi que leur métacognitions du processus de travail se sont améliorées. L’émergence des connexions entre la maîtrise du processus de travail et la satisfaction suite au programme suggère que les qualifications professionnelles peuvent être une source de bien-être dans une organisation qui accorde de l’importance aux compétences et qui le démontre notamment par l’adoption continue du développement du processus de travail et de la maîtrise de ce processus en tant que caractéristique organisationnelle. Les résultats concernant les programmes de développement ou la formation au niveau organisationnel sont rares. La seconde étude considérée dans cet article se concentre sur les expériences de plusieurs fabricants de papier expérimentés devant maintenant travailler sur une nouvelle ligne de production compte tenu d’un déclin important de la productivité de la vieille ligne de production. Suite au programme, les ouvriers étant toujours affectés à la vieille ligne de production possédaient une maîtrise conceptuelle similaire à ceux qui ont été affectés à la nouvelle ligne de production et qui ont participé à une formation. De plus, la quantité et la qualité de la production sur la vieille ligne se sont grandement améliorée. De nos jours, la maîtrise du travail ou encore les connaissances reliées au travail sont considérées comme des préalables nécessaires au succès organisationnel. Les principes didactiques appliqués dans les programmes de développement sont devenus de plus en plus fréquents dans les pratiques de formation dans les écoles et dans les universités, mais elles sont encore rares dans les ateliers. L’application de ces principes devrait cependant supporter les organisations dans leur apprentissage par leurs propres activités.
APA, Harvard, Vancouver, ISO, and other styles
10

Hindriks, Jean. "Numéro 31 - juin 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15963.

Full text
Abstract:
Ce numéro de Regards économiques se penche sur la situation économique et sociale en Wallonie. Il en dresse un large portrait, en souligne les points positifs et négatifs, et ébauche quelques pistes de réflexion sur les mesures propices à donner à l’économie wallonne un nouvel élan. 
 Dans ce numéro, nous avons pris l’initiative de nous exprimer sur un sujet qui nous préoccupe : "le malaise économique wallon". Nous avons pour ce faire regroupé l’avis de spécialistes de la question dont la renommée est établie. Ces experts sont issus de différentes universités francophones. Nous leur avons demandé d’offrir aux citoyens un portrait nuancé mais sans concession de la situation wallonne. En "officialisant" la situation économique et sociale de la Wallonie, nous espérons obliger les acteurs sociaux et les partis politiques à "reconnaître" les points faibles de l’économie wallonne. Nous refusons cette stratégie qui consiste à dissimuler la situation réelle pour ne pas saper le moral des troupes. "Cachez ce sein que je ne saurais voir" disait déjà Tartuffe, avant d’ajouter quelques scènes plus loin : "le scandale du monde est ce qui fait l’offense et ce n’est pas pécher que pécher en silence". Ce "nominalisme" ‑ on veut bien de la chose mais à condition qu’on ne la nomme pas ‑ et ce double langage constituent l’une des manifestations les plus préoccupantes de la difficulté de nos politiciens à assumer la vérité et à sortir de la représentation complaisante qu’ils ont d’eux-mêmes. Fin mai 2005, le gouvernement wallon a enfin explicitement reconnu ce qu’il a appelé "le malaise économique wallon". L’étape suivante est de dresser un constat précis de la nature du malaise, de manière à pouvoir concevoir une stratégie de politique économique adaptée au problème. C’est dans cette perspective que se situe ce numéro de Regards économiques.
 Notre objectif est donc d’apprécier la situation économique et sociale en Wallonie sur base d’éléments objectifs, et de la comparer à la situation en Flandre et en Europe. Nous comprenons le risque qu’une comparaison avec la Flandre peut présenter. Cependant, sans vouloir alimenter les tensions communautaires, nous avons la conviction que cette comparaison entre les deux régions est vraiment utile étant donné que celles-ci partagent un environnement économique et un contexte institutionnel et culturel fort semblables. Cela s’inscrit aussi dans l’esprit de la "Méthode Ouverte de Coordination" de l’Union européenne, visant à créer une émulation entre régions au travers d’une concurrence par comparaison. Cette comparaison est surtout utile pour comprendre les sources éventuelles des dysfonctionnements et les pistes d’amélioration possibles.
 Ce numéro de Regards économiques comporte quatre contributions, sur les thèmes suivants :
 
 Bruxelles et: une lecture en termes de géographie économique (Jacques-François Thisse)
 PIB et PRB de la: des diagnostics contrastés (Michel Mignolet et Marie Eve Mulquin)
 Le portrait social de la Wallonie : responsabilités et gouvernance (Pierre Pestieau)
 Le marché du travail en: un tableau en clair-obscur (Béatrice Van Haeperen).
 
 Dans la suite de ce communiqué, nous résumons brièvement les éléments principaux de chaque contribution, en regroupant les points positifs et les points négatifs que chacune d’elles donne de la situation économique et sociale en Wallonie.
 1. Les points positifs
 
 Les dynamiques de croissance entre régions se rapprochent progressivement. L’écart inter-régional de croissance annuelle moyenne diminue entre la Flandre et la : celui-ci ne s’élevait plus qu’à 0,80 % de 1975 à 1995, pour se replier encore plus à 0,54 % de 1995 à 2003. Le différentiel se réduit davantage si on ne considère que les dernières années, où il se chiffre à 0,37 % de 1999 à 2003.
 Si l’on mesure la croissance régionale sur base du lieu de résidence et non du lieu de production (pour prendre en compte l’activité croissante des wallons à Bruxelles), depuis 1999, la part de la Wallonie dans la production totale belge s’est légèrement redressée.
 Une analyse par branche de la structure de production ne permet pas de conclure à un manque de dynamisme généralisé de l’industrie en Wallonie. Le retard de croissance en Wallonie est imputable à une sous-représentation des secteurs les plus dynamiques et une moindre performance des secteurs les plus importants.
 Le Brabant wallon est la province belge qui a connu la croissance la plus forte de 1995 à 2002, avec une évolution de la production sur la période de 8 % au-dessus de la moyenne de l’UE 15 et de presque 10 % au-dessus de la moyenne belge. Le Brabant wallon est aussi la seule province wallonne dont le revenu par habitant est supérieur à la moyenne de l’UE 15.
 L’emploi salarié en Wallonie a augmenté de 9 % entre 1992 et 2002. Les croissances les plus fortes sont dans le Brabant wallon (28 %), les provinces de Luxembourg (16 %) et de Namur (13 %), à comparer à une croissance moyenne de l’emploi salarié en Flandre de 13 %.
 Depuis 1997, le rythme de progression de l’emploi privé est comparable dans les deux régions. A partir de 2000, le nombre d’emplois des secteurs à haute et moyenne technologies et des services à haute technologie et à haut niveau de savoir progresse en Wallonie mais régresse en Flandre.
 La proportion de personnes très qualifiées dans la population wallonne augmente et la proportion de peu qualifiés diminue. Le profil de qualification par catégorie d’âge en Wallonie en 2003 est très proche de la moyenne belge.
 Les dépenses intra-muros des entreprises en R&D progressent plus rapidement en Wallonie. Entre 2001 et 2002, le taux de croissance était de 11,% en Wallonie contre 3,6 % en Flandre.
 
 2. Les points négatifs
 
 Un rapprochement des taux de croissance est insuffisant pour assurer un rattrapage des économies régionales. Etant donné son retard de développement, la Wallonie devrait enregistrer des taux de croissance supérieurs à la Flandre, ce qui est loin d’être le cas. La part de la Wallonie dans la production totale belge continue donc à diminuer, passant de plus de 30 % en 1995 à moins de 25 % en 2003.
 La productivité marginale du capital est plus faible en Wallonie qu’en Flandre, ce qui donne lieu à un taux d’investissement moindre en Wallonie. Sur la période 1995-2001, le rendement brut du capital est de 14,% en Wallonie contre 17,5 % en Flandre. Cela pose problème pour l’attractivité relative de la Wallonie pour l’investissement.
 Le revenu moyen par habitant en Wallonie est 25 % inférieur à celui de la Flandre en 2002 (équivalent à la moyenne de l’UE 15).
 Les disparités entre provinces wallonnes s’accentuent. Sur la période 1995-2002, le Brabant wallon enregistre une augmentation de 8 % de sa production par rapport à la moyenne de l’UE15 alors que les provinces de Liège, du Hainaut et du Luxembourg enregistrent chacune une baisse supérieure à 6 %.
 En 2003, le taux d’emploi en Wallonie de 55,4 % reste significativement inférieur à celui de la Flandre (62,9 %) et celui de l’UE15 (64,2 %). La Wallonie est donc encore loin de l’objectif de taux d’emploi de 70 %. La structure de l’emploi est aussi fort différente entre régions avec en 2002, 2/3 des emplois dans le secteur privé en Wallonie pour 3/4 des emplois dans le secteur privé en Flandre.
 Le taux de chômage est resté stable autour de% en Wallonie entre 1995 et 2002 du fait d’une augmentation de la population active égale à l’augmentation de l’emploi. En 2002, le taux de chômage en Flandre est passé en dessous de 5 %.
 Le taux de chômage des jeunes (15-24 ans) en Wallonie est le plus élevé d’Europe avec un taux de 26,5 % en 2002 contre 11,6 % en Flandre. Plus alarmant encore, plus de 40 % des chômeurs en Wallonie sont des chômeurs de longue durée (>2 ans) contre moins de 20 % en Flandre.
 Le pourcentage de la population de 18-24 ans sans diplôme de l’enseignement secondaire et qui ne suit ni enseignement, ni formation est de% en Wallonie contre 11,7 % en Flandre. En outre, selon la dernière enquête PISA, l’enseignement secondaire en Communauté française figure en 31e position sur 41 pays contre une 3e position pour la Flandre pour un budget équivalent sinon moindre. 
 
 3. Que faire ?
 Face à ce constat que pouvons-nous faire ? Quelques pistes de réflexion sont présentées dans ce numéro de Regards économiques. Parmi celles-ci, nous relevons la nécessité de cesser la politique de saupoudrage et de concentrer les efforts autour d’une grande métropole urbaine comme Bruxelles en reconnaissant que les échanges se développent de plus en plus entre régions urbaines. La Wallonie se doit de travailler en partenariat stratégique avec Bruxelles dans une perspective économique moderne. La zone d’influence de Bruxelles doit dépasser le Brabant wallon. Il faut aussi chercher à améliorer l’efficacité dans l’utilisation des fonds publics en évitant les doublons et en recourant systématiquement à des études d’efficacité rigoureuses et impartiales. Par exemple, on pourrait explorer ce que coûte l’existence des provinces, des multiples réseaux d’enseignement et des cabinets ministériels. On peut aussi s’interroger sur le grand nombre d’intercommunales et le manque de transparence de leur gestion. Il faut aussi s’attaquer de toute urgence au scandale du chômage des jeunes par une politique de remédiation volontariste. On doit investir massivement dans le système éducatif pour élever le niveau de qualification des jeunes et faciliter la transition enseignement et emploi. Il faut élargir la mission du FOREM au-delà de la diffusion des offres d’emploi pour lui confier la fonction critique de placement et d’accompagnement des demandeurs d’emploi. Il faut aussi mettre en place des outils d’évaluation des politiques de l’emploi. C’est inadmissible que depuis l’année 2004, la Wallonie est incapable de publier des statistiques sur les offres d’emploi satisfaites et insatisfaites (alors que Bruxelles et la Flandre continuent à publier ces chiffres).
 Nous poursuivrons notre analyse de la situation wallonne dans un prochain numéro de Regards économiques. Nous attendons aussi des hommes politiques qu’ils reconnaissent cette situation et le traduisent dans leurs actes en poursuivant une politique économique adaptée, cohérente et stable. Il n’y a pas de fatalité. Nous en voulons pour preuve l’expérience danoise qui en 10 ans a réduit son chômage de moitié par un système novateur de "flexicurité" (en partenariat avec les syndicats). Son marché du travail s’est fluidifié avec plus d’un danois sur trois changeant de travail au cours d’une année et un effort substantiel du gouvernement sur la formation, l’orientation et l’accompagnement des chômeurs. Un sondage récent montre que les travailleurs danois ne sont pas plus mécontents avec ce système que les travailleurs belges. L’Angleterre, avec un taux de syndicalisme plus élevé que chez nous, a aussi réussi par son "New Deal" à réduire de moitié le chômage des jeunes. Ces deux pays connaissent aujourd’hui un taux de chômage de 5 %, bien inférieur à la moyenne européenne. Comprendre pourquoi pourrait être fortement utile à la Wallonie.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Machine de langage de haut niveau"

1

Park, Seung Kyu Schoellkopf J. P. "Etude de langages interprétables par une machine langage de haut niveau." S. l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00300432.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dusina, Julia. "Vérification formelle des résultats de la synthèse de haut niveau." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10171.

Full text
Abstract:
Pour satisfaire la demande du marche actuel, plusieurs outils commerciaux de verification formelle sont apparus ces dernieres annees. Le niveau le plus abstrait de description accepte dans la plupart de ces outils est le niveau appele transfert de registres, c'est-a-dire une description avec des cycles d'horloge explicitement definis. Pour rester competitifs, neanmoins, les concepteurs sont obliges d'elever le niveau d'abstraction et commencent a utiliser des outils de synthese de haut niveau. Cette these a pour objet la verification formelle des resultats de synthese de haut niveau par rapport a la specification initiale decrite en vhdl. Nous proposons une methodologie de verification qui epouse le flot de conception et consiste en la verification de deux etapes principales : l'ordonnancement et l'allocation. La verification de chaque etape est fondee sur un modele de machine abstraite que nous avons defini : contrairement au modele de machine d'etats finis classique, il reduit considerablement l'espace d'etats d'ou les registres de la partie operative sont exclus. En outre, la machine abstraite est similaire aux descriptions vhdl utilisees lors de la synthese et offre, par consequent, un niveau d'abstraction plus eleve de representation des circuits. La preuve d'equivalence entre la machine abstraite et la machine d'etats finis classique justifie la premiere et constitue une des contributions theoriques de la these. Un prototype d'outil base sur la simulation symbolique a ete developpe et execute sur des benchmarks de la synthese comportementale. La these s'acheve sur les problemes ouverts et les axes de recherche a explorer.
APA, Harvard, Vancouver, ISO, and other styles
3

Varoumas, Steven. "Modèles de programmation de haut niveau pour microcontrôleurs à faibles ressources." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS394.

Full text
Abstract:
Les microcontrôleurs sont des circuits imprimés programmables nichés dans de nombreux objets de notre quotidien. En raison de leurs ressources limitées, ils sont souvent programmés dans des langages de bas niveau comme le C, ou en langage assembleur. Ces derniers n'offrent pas les mêmes abstractions et les mêmes garanties que des langages de haut niveau, comme OCaml. Cette thèse propose alors un ensemble de solutions destinées à enrichir la programmation de microcontrôleurs avec des paradigmes de programmation de plus haut niveau. Ces solutions apportent une montée en abstraction progressive, permettant notamment de réaliser des programmes indépendants du matériel utilisé. Nous présentons ainsi une première abstraction du matériel prenant la forme d’une machine virtuelle OCaml, qui permet de profiter des nombreux avantages du langage tout conservant une faible empreinte mémoire. Nous étendons par la suite OCaml avec un modèle de programmation synchrone inspiré du langage Lustre et permettant d'abstraire les aspects concurrents d’un programme. Une spécification formelle du langage est donnée, et plusieurs propriétés de typage sont par la suite vérifiées. Les abstractions offertes par nos travaux induisent par ailleurs la portabilité de certaines analyses statiques pouvant être réalisées sur le bytecode des programmes. Une telle analyse, servant à estimer le temps d’exécution pire-cas d’un programme synchrone, est alors proposée. L'ensemble des propositions de cette thèse constitue une chaîne complète de développement, et plusieurs exemples d’applications concrètes illustrant l'intérêt des solutions offertes sont alors présentées<br>Microcontrollers are programmable integrated circuit embedded in multiple everyday objects. Due to their scarce resources, they often are programmated using low-level languages such as C or assembly languages. These languages don't provide the same abstractions and guarantees than higher-level programming languages, such as OCaml. This thesis offers a set of solutions aimed at extending microcontrollers programming with high-level programming paradigms. These solutions provide multiple abstraction layers which, in particular, enable the development of portable programs, free from the specifics of the hardware. We thus introduce a layer of hardware abstraction through an OCaml virtual machine, that enjoys the multiple benefits of the language, while keeping a low memory footprint. We then extend the OCaml language with a synchronous programming model inspired from the Lustre dataflow language, which offers abstraction over the concurrent aspects of a program. The language is then formally specified and various typing properties are proven. Moreover, the abstractions offered by our work induce portability of some static analyses that can be done over the bytecode of programs. We thus propose such an analysis that consists of estimating the worst case execution time (WCET) of a synchronous program. All the propositions of this thesis form a complete development toolchain, and several practical examples that illustrate the benefits of the given solutions are thus provided
APA, Harvard, Vancouver, ISO, and other styles
4

Bruni, Camillo. "Towards self-aware virtual machines." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10021/document.

Full text
Abstract:
Les langages de haut-niveau supportent des opérations réflectives qui permettent à l’environnement d’exécution d’un langage d’inspecter et de changer son propre état et sa propre exécution. Ces langages de haut-niveau s’exécutent normalement sur une machine virtuelle (VM) qui ajoute une couche d’abstraction au-dessus du matériel. À cause de cette séparation, peu d’opérations réflectives sont disponibles pour inspecter et modifier la VM. Plusieurs VMs expérimentales offrent de telles opérations réflectives en proposant un modèle unifié qui ne distingue pas la couche VM de la couche langage. Dans cette thèse, nous suivons une approche similaire qui propose un environnement d’exécution unifié et auto-décrit. Nous nous intéressons à une solution minimale. Au lieu de dépendre de modifications d’une VM, nous générons dynamiquement du code natif depuis la couche langage. Nous présentons Benzo, un framework pour la génération dynamique de code natif. Benzo fournit une interface générique et de bas-niveau pour accéder aux fonctionnalités fondamentales de la VM. Grâce à Benzo, nous analysons plusieurs applications qui nécessitent un accès direct à la VMM. Nous montrons comment Benzo peut être utilisé pour implémenter une librairie de Foreign Function Interfaces, permettant de faciliter l’accès aux fonctionnalités bas-niveau de la VM. Pour évaluer les limitations de Benzo, nous visons deux autres applications: la génération dynamique de primitive et un compilateur JIT (Just-In-Time). Ces deux applications doivent changer le comportement de la VM. Pour cela, elles ont besoin d’une interaction poussée avec la VM<br>High-level languages implement reflection which allows a language runtime to inspect and alter its own execution and state. These high-level languages typically run on top of virtual machines (VMs) which have been built to create an abstraction layer over hardware. Due to the isolating nature of the VM, reflection is generally limited to the language-side. Several research VMs overcome this limitation and provide a unified model where there is no more a clear distinction between language-side and VM-side. In such a language runtime it is possible to reflectively modify VM components from language-side as they reside on the same abstraction layer. In this dissertation we follow the same global direction towards a unified language-runtime and self-aware VM. However, instead of looking for a holistic solution we focus on a minimal approach. Instead of using a custom tailored language runtime we use dynamic native code activation from language-side on top of an existing VM. We first present Benzo our framework for dynamic native code activation. Benzo provides a generic but low-level interface to the VM internals. Based on this framework we then evaluate several applications that typically require direct VM support. We show first how Benzo is used to build an efficient Foreign Function Interface, allowing for a more structured access to VM internal functions. To evaluate the limitations of Benzo we target two more applications: dynamic primitives and a language-side JIT compiler. Both of them require a tight interaction with the underlying VM
APA, Harvard, Vancouver, ISO, and other styles
5

Ciabrini, Damien. "Débogage symbolique multi-langages pour les plates-formes d'exécution généralistes." Phd thesis, Université de Nice Sophia-Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00122789.

Full text
Abstract:
Cette thèse est consacrée à l'amélioration des débogueurs symboliques pour tenir compte des spécificités des langages de haut niveau, notamment leur compilation délicate vers des plates-formes d'exécution généralistes. Ces travaux ont conduit à la réalisation de Bugloo, un débogueur multi-langages pour la machine virtuelle Java. <br /><br />Deux nouveaux mécanismes de représentations virtuelles sont proposés pour éliminer les perturbations de débogage dues à la présence sur la pile de fonctions intermédiaires produites par la compilation des langages de haut niveau. Le premier utilise des règles fournies par les implanteurs de langage pour maintenir une correspondance entre le code source d'un programme et le code produit par sa compilation. Cela permet au débogueur de reconstruire une vue logique dans laquelle les détails de compilation ont été expurgés. Le second mécanisme sert à contrôler l'exécution pas-à-pas, afin de ne jamais s'arrêter dans les fonctions intermédiaires engendrées par le compilateur. Ces deux mécanismes ont été adaptés pour réaliser un profileur d'allocation mémoire produisant des statistiques dans lesquelles les fonctions intermédiaires sont masquées. <br /><br />Durant ces travaux, un support de débogage complet a été développé pour le langage Bigloo, un dialecte du langage fonctionnel Scheme. Des expérimentations similaires ont étés menées sur les langages ECMAScript et Python. Les résultats obtenus montrent que les techniques de représentations virtuelles développées s'appliquent efficacement quel que soit le schéma de compilation adopté, y compris lorsque les programmes sont composés de plusieurs langages de haut niveau.
APA, Harvard, Vancouver, ISO, and other styles
6

Wang, Philippe. "Langages Applicatifs et Machines Abstraites pour la Couverture de Code Structurelle." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00741549.

Full text
Abstract:
Cette thèse présente une étude qui répond à un besoin industriel d'avoir des outils pour aider à la qualité et au respect des processus de développement de logiciels critiques comme ceux du domaine de l'avionique civile. Il s'agit de l'étude de la couverture de code structurelle pour un langage de la famille ML. Dans ce contexte, ML apparaît comme un langage particulièrement riche en constructions de haut-niveau d'abstraction et expressif. Son utilisation est un élément de progrès mais soulève des problèmes d'adaptation des pratiques du génie logiciel classique pour les systèmes critiques. Notamment, la notion de couverture des conditions et des décisions ainsi que les critères de couverture dérivés se complexifient rapidement. Nous donnons alors en première contribution plusieurs sémantiques pour l'interprétation des définitions des conditions et des décisions pour un langage d'expressions de haut-niveau que nous avons complètement formellement défini. Ensuite, nous donnons la sémantique formelle pour une implantation pour la mesure de couverture par réécriture du code source, ce que nous appelons l'instrumentation intrusive. Puis, nous étudions une technique qui ne réécrit pas le code, ce qui permet d'avoir la possibilité d'utiliser le même binaire pour les tests et pour la production. Cette technique, que nous appelons non intrusive, consiste à générer les informations de correspondance entre le code source et le code machine, et éventuellement d'autres informations, pour que l'environnement d'exécution incluant une machine virtuelle puisse enregistrer les traces nécessaires à l'élaboration des rapports de couverture. Enfin, nous comparons ces deux approches, en terme de sémantique, d'utilisation et d'implantation.
APA, Harvard, Vancouver, ISO, and other styles
7

Janta, Polczynski Martin. "Texte en langage naturel vu comme une spécification de haut niveau." Paris, EHESS, 1991. http://www.theses.fr/1991EHES0040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Amaneddine, Nouhad. "Un Modèle de spécification de haut niveau pour la transformation de données structurées." Toulouse 3, 2004. http://www.theses.fr/2004TOU30195.

Full text
Abstract:
Le développement d'Internet a subi une croissance assez rapide dans les cinq dernières années. Les documents accessibles sont publiés sous forme de pages HTML. Ce format de publication électronique ne sépare pas le contenu du document de sa forme. Le méta langage extensible XML définit un format bien structuré et répond aux exigences des nouvelles technologies, comme la présentation et la gestion des documents Web. XML est devenu une norme et il présente une technologie prometteuse pour la communication et la gestion de l'information. La communauté de l'Internet représentée par le consortium W3C a proposé en 1999 le langage des feuilles de styles extensible XSL. Ce langage est composé de deux parties: le langage XSL-FO pour le formatage des documents en vue de leurs présentations, et le langage XSLT pour la transformation des documents XML. Nous nous intéressons dans cette thèse à la partie transformation du langage XSL. XSLT est un langage plus simple qu'un langage de programmation classique. Il est en lui-même un langage très puissant et accessible au non programmeur. Cependant, il est difficile d'implémenter des règles de transformation complexes en XSLT, et la maintenance du code n'est pas évidente, surtout quand il s'agit d'une longue feuille de style qui manipule des transformations avancées. Comme alternative, nous proposons dans cette thèse un système de spécification des transformations de données structurées appelé TransM. Plusieurs approches de transformation de données structurées sont abordées. Nous présentons leurs avantages et leurs inconvénients ainsi que les plates-formes associées. Un problème que rencontrent les approches actuelles est la difficulté voire l'impossibilité de spécifier une transformation si les structures des documents source et cible sont complètement différentes. Un autre problème se manifeste par leur inaptitude à gérer des transformations sur des documents de structure récursive. Nous avons résolu ces problèmes à l'aide des règles de transformation de TransM. Un domaine d'application connexe bien qu'usuellement séparé dans la littérature est celui de la transformation de modèles. Les problèmes de la récursivité des éléments et de la différence structurelle sont affrontés aussi par les approches de transformation concernées. Pour résoudre ces problème de transformation, il suffit de représenter les modèles dans le format XMI, qui est une représentation XML des modèles, puis d'appliquer les transformations exprimées en TransM sur le document correspondant au format XML. TransM est basé sur un ensemble de règles dont nous définissons la grammaire. Les règles de spécification utilisées sont simples, intuitives et peuvent effectuer non seulement les transformations simples et directes, mais aussi des transformations de structure, point qui n'est pas toujours abordé dans les langages actuellement proposés. Les règles sont définies sur la grammaire des documents. Cette thèse étudie le problème de la transformation de données structurées. Afin de profiter des outils implantant le langage XSLT, le système génère du code XSLT pour accomplir la transformation au niveau des instances. Pour valider notre travail, nous avons développé un prototype de TransM, qui effectue avec succès les transformations avancées voulues<br>The Internet has presented an increasing development during the last five years. The accessible documents are published under the HTML format. This type of publication does not separate the structure of the document from its content. The extensible meta-language XML has defined a well structured format that responds to the new technologies requirements, like the management and the presentation of Web documents. XML has became an international norm and it presents a promised technology for managing and communicating informations. The Internet community represented by the W3C consortium has proposed in 1999 a new extensible stylesheet language XSL. This language has two parts: the language XSL-FO to formatting documents against their presentation and the second part consists of the XSLT language that has been built for XML document transformations. We are interesting in this thesis by the transformation part of the XSL language XSLT is a transformation language that is more simple than classical programming languages. It has considerable computation power. .
APA, Harvard, Vancouver, ISO, and other styles
9

Ammari, Abdelaziz. "Analyse de sûreté des circuits complexes décrits en langage de haut niveau." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00101622.

Full text
Abstract:
La probabilité des fautes transitoires augmente avec l'évolution des technologies. Plusieurs approches ont été proposées pour analyser très tôt l'impact de ces fautes sur un circuit numérique. Il est notamment possible d'utiliser une approche fondée sur l'injection de fautes dans une description VHDL au niveau RTL. Dans cette thèse, nous apportons plusieurs contributions à ce type d'analyse. Un premier aspect considéré est la prise en compte de l'environnement du circuit numérique lors des campagnes d'injection. Ainsi, une approche basée sur une analyse de sûreté de fonctionnement multi-niveaux a été développée et appliquée sur un exemple. Les injections sont réalisées dans le circuit numérique décrit au niveau RTL alors que le reste du système est décrit à un niveau d'abstraction plus élevé. L'analyse des résultats montre que certaines défaillances apparaissant au niveau du circuit n'ont en fait aucun impact sur le système. Nous présentons ensuite les avantages de la combinaison de deux types d'analyses : la classification des fautes en fonction de leurs effets, et l'analyse plus détaillée des configurations d'erreurs activées dans le circuit. Une campagne d'injection de fautes de type SEU a été réalisée sur un microcontrôleur 8051 décrit au niveau RTL. Les résultats montrent que la combinaison des analyses permet au concepteur de localiser les points critiques, facilitant l'étape de durcissement. Ils montrent également que, dans le cas d'un processeur à usage général, les configurations d'erreurs peuvent être dépendantes du programme exécuté. Cette étude a également permis de montrer que l'injection d'un très faible pourcentage des fautes possibles permet déjà d'obtenir des informations utiles pour le concepteur. La même méthodologie a été utilisée pour valider la robustesse obtenue avec un durcissement au niveau logiciel. Les résultats montrent que certaines fautes ne sont pas détectées par les mécanismes implémentés bien que ceux-ci aient été préalablement validés par des injections de fautes basées sur un simulateur de jeu d'instructions. Le dernier aspect de cette thèse concerne l'injection de fautes dans des blocs analogiques. En fait très peu de travaux traitent du sujet. Nous proposons donc un flot global d'analyse pour circuits numériques, analogiques ou mixtes, décrits au niveau comportemental. La possibilité d'injecter des fautes dans des blocs analogiques est discutée. Les résultats obtenus sur une PLL, choisie comme cas d'étude, sont analysés et montrent la faisabilité de l'injection de fautes dans des blocs analogiques. Pour valider le flot, des injections de fautes sont également réalisées au niveau transistor et comparées à celles réalisées à haut niveau. Il apparaît une bonne corrélation entre les résultats obtenus aux deux niveaux<br>The probability of transient faults increases with the evolution of the technologies. Several approaches have been proposed to early analyze the impact of these faults in a digital circuit. It is in particular possible to use an approach based on the injection of faults in a RT-Level VHDL description. In this thesis, we make several contributions to this type of analysis. A first considered aspect is to take into account the digital circuit's environment during the injection campaigns. So, an approach based on multi-level dependability analysis has been developed and applied to an example. The injections are performed in the digital circuit described at the RT-Level while the rest of the system is described at a higher level of abstraction. The results' analysis shows that failures appearing at circuit's level have in fact no impact on the system. We then present the advantages of the combination of two types of analyses : classification of faults with respect to their effects, and a more detailed analysis of error configurations activated in the circuit. An injection campaign of SEU-like faults was performed on a 8051 microcontroller described at RT-Level. The results show that the combination of the two type analyses allows a designer to localize the critical points, facilitating the hardening stage. They also show that, in the case of a general processor, the error configurations can be dependent on the executed program. This study also demonstrates that injecting a very small percentage of the possible faults gives useful information to the designer. The same methodology has been used to validate the robustness obtained with a software hardening. The results show that some faults are not detected by the implemented mechanisms although those were previously validated by fault injections based on an instruction set simulator. The last aspect of this thesis concerns the fault injection in analog blocks. In fact very few works cover this subject. We thus propose a global analysis flow for digital, analog or mixed circuits, described at behavioral level. The possibility to inject faults in analog blocks is discussed. The results obtained on a PLL, chosen as case study, have been analysed and show the feasibility of fault injections in analog blocks. To validate this flow, fault injections were also performed at transistor level and compared to those performed at high level. It appears a good correlation between the results obtained at the two levels
APA, Harvard, Vancouver, ISO, and other styles
10

Pradel, Camille. "D'un langage de haut niveau à des requêtes graphes permettant d'interroger le web sémantique." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2237/.

Full text
Abstract:
Les modèles graphiques sont de bons candidats pour la représentation de connaissances sur le Web, où tout est graphes : du graphe de machines connectées via Internet au "Giant Global Graph" de Tim Berners-Lee, en passant par les triplets RDF et les ontologies. Dans ce contexte, le problème crucial de l'interrogation ontologique est le suivant : est-ce qu'une base de connaissances composée d'une partie terminologique et d'une partie assertionnelle implique la requête, autrement dit, existe-t-il une réponse à la question ? Ces dernières années, des logiques de description ont été proposées dans lesquelles l'expressivité de l'ontologie est réduite de façon à rendre l'interrogation calculable (familles DL-Lite et EL). OWL 2 restreint OWL-DL dans ce sens en se fondant sur ces familles. Nous nous inscrivons dans le contexte d'utilisation de formalismes graphiques pour la représentation (RDF, RDFS et OWL) et l'interrogation (SPARQL) de connaissances. Alors que les langages d'interrogation fondés sur des graphes sont présentés par leurs promoteurs comme étant naturels et intuitifs, les utilisateurs ne pensent pas leurs requêtes en termes de graphes. Les utilisateurs souhaitent des langages simples, proches de la langue naturelle, voire limités à des mots-clés. Nous proposons de définir un moyen générique permettant de transformer une requête exprimée en langue naturelle vers une requête exprimée dans le langage de graphe SPARQL, à l'aide de patrons de requêtes. Le début de ce travail coïncide avec les actions actuelles du W3C visant à préparer une nouvelle version de RDF, ainsi qu'avec le processus de standardisation de SPARQL 1. 1 gérant l'implication dans les requêtes<br>Graph models are suitable candidates for KR on the Web, where everything is a graph, from the graph of machines connected to the Internet, the "Giant Global Graph" as described by Tim Berners-Lee, to RDF graphs and ontologies. In that context, the ontological query answering problem is the following: given a knowledge base composed of a terminological component and an assertional component and a query, does the knowledge base implies the query, i. E. Is there an answer to the query in the knowledge base? Recently, new description logic languages have been proposed where the ontological expressivity is restricted so that query answering becomes tractable. The most prominent members are the DL-Lite and the EL families. In the same way, the OWL-DL language has been restricted and this has led to OWL2, based on the DL-Lite and EL families. We work in the framework of using graph formalisms for knowledge representation (RDF, RDF-S and OWL) and interrogation (SPARQL). Even if interrogation languages based on graphs have long been presented as a natural and intuitive way of expressing information needs, end-users do not think their queries in terms of graphs. They need simple languages that are as close as possible to natural language, or at least mainly limited to keywords. We propose to define a generic way of translating a query expressed in a high-level language into the SPARQL query language, by means of query patterns. The beginning of this work coincides with the current activity of the W3C that launches an initiative to prepare a possible new version of RDF and is in the process of standardizing SPARQL 1. 1 with entailments
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Machine de langage de haut niveau"

1

Svoboda, Mira. Les obstacles linguistiques à l'accès au sport de haut niveau: Étude 2005. Patrimoine canadien, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography