To see the other types of publications on this topic, follow the link: Systèmes de traitement de la.

Dissertations / Theses on the topic 'Systèmes de traitement de la'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes de traitement de la.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Klein, Gilles. "Systèmes multiagents distribués et systèmes distribués multiagents." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090033.

Full text
Abstract:
Le domaine des Systèmes Multiagents (SMA) se place à l'intersection entre l'intelligence artificielle (IA), l'informatique distribuée et la programmation objet. Pour des raisons historiques, ils ne sont souvent considérés que du point de vue de l'IA, pourtant les concepteurs de SMA mettent souvent en avant la facilité avec laquelle le niveau d'encapsulation et l'autonomie des agents les rendent facilement distribuables. Nous montrons au cours de cette thèse que l'autonomie et l'encapsulation ne suffisent pas à rendre les SMA aisément distribuables, il faut aussi que les agents soient construits en suivant des règles et en représentant leurs différentes tâches de façon formelle. Nous tentons donc de répondre à la question : " comment faire d'un système multiagent un véritable système distribué ? " Considérer les SMA du point de vue de l'informatique distribuée permet de plus d'envisager d'autres applications pour les systèmes multiagents. L'encapsulation et l'autonomie des agents permet de construire des applications partagées entre plusieurs utilisateurs n'ayant pas nécessairement les mêmes buts, comme par exemple est outils de partage de ressources peer-to-peer. Nous avons donc proposé une architecture agent permettant le partage de ressources génériques entre des utilisateurs diversifiés. En cela, nous avons construit un système distribué multiagent
Multiagent Systems (MAS) are born from the convergence of Artificial Intelligence, distributed computing and object-oriented programming. For several historical reasons, they are mostly considered as a subpart of AI, even then, MAS designers continuously assure that the agents' high level of encapsulation and autonomy offer easy physical distribution. We have shown that they are not enough. To be efficiently distributed, a MAS must be designed and built following several rules and must be formally verified. This thesis so shows “how to distribute a Multiagent System”. Considering MAS from the distributed computing point of view offers new applications for multiagent systems: encapsulation and autonomy permit the building of software tools shared by users whose goals might be divergent. We proposed a peer-to-peer sharing tools based on agents offering generic resources sharing, in so we built a multiagent distributed system
APA, Harvard, Vancouver, ISO, and other styles
2

Poulet, Cyril. "Coordination dans les systèmes multi-agents : Le problème de la patrouille en système ouvert." Paris 6, 2013. http://www.theses.fr/2013PA066152.

Full text
Abstract:
La patrouille temporelle multi-agent est un problème intéressant pour tester et comparer différentes méthodes de coordination multi-agent sur une tâche coopérative : la visite répétée et fréquente des zones d'intérêt d'un graphe. Cependant, le problème actuel est limité par des hypothèses fortes telles que la fermeture du système et la synchronicité des communications, ce qui limite sa complexité et son applicabilité. Dans cette thèse, nous proposons de lever ces hypothèses et d'étudier diverses stratégies de coordination au regard du nouveau problème. Dans un premier temps, nous proposons un cadre d'étude à la nouvelle tâche : formalisation, métriques, stratégies de référence. Dans un second temps, nous étudions l'impact de la levée de ces hypothèses sur les stratégies à base d'enchères. Nous proposons alors l'usage de mécanismes de gestion des entrées et sorties d'agents pour diminuer cet impact. Nous montrons aussi qu'il est possible d'égaler les performances des stratégies centralisées de référence de s'inspirant de la théorie du choix social computationnelle pour créer des stratégies à base d'enchères coopératives et décentralisées. Enfin, nous ouvrons le problème du passage à l'échelle du problème, tant sur la taille du graphe que sur la taille de la société d'agents, ainsi que celui de l’applicabilité du problème
The timed multi-agent patrolling task is an interesting problem to test and compare coordination strategies on a cooperative task: visiting repetitively and frequently areas of interest in a graph. However, until now this task was limited by strong hypothesis: the system is closed, and the communications are synchronous. These hypotheses limit strongly both its complexity and applicability. In this thesis, we propose to lift these hypotheses and study the behaviour of various coordination strategies on the new task. In a first time, we propose a framework for the new problem: formal description, metrics, and strategies to use as references. In a second time, we show the impact of lifting these hypotheses on auction-based, decentralized strategies. We propose various mechanisms to cope with the open system setting and decrease its impact. We also show that it is possible to apply computational social choice theory concepts to the patrolling task and create cooperative, decentralized auction-based strategies that perform as well as centralized, reference strategies. Finally, we open the patrolling problem on the scaling perspective, both in terms of graph size and population size
APA, Harvard, Vancouver, ISO, and other styles
3

Bai, Xiao. "Traitement personnalisé de requête top-K : des systèmes centralisés aux systèmes décentralisés." Phd thesis, INSA de Rennes, 2010. http://tel.archives-ouvertes.fr/tel-00545642.

Full text
Abstract:
La révolution Web 2.0 a transformé l'Internet, une infrastructure auparavant en lecture seule, en une plate-forme collaborative en lecture-écriture. La forte augmentation des donnés générées par les utilisateurs des systèmes collaboratifs constitue désormais une source considérable d'informations. Pourtant, effectuer efficacement des recherches dans un tel environnement est devenu plus difficile, en particulier lorsque ces recherches engendrent des ambiguïtés. Personnaliser les recherches permet d'éviter ces écueils en limitant les recherches au sein d'un réseau très réduit de participants ayant des intérêts similaires. Toutefois, les solutions centralisées pour mettre en œuvre cette personnalisation s'avèrent difficile compte tenu du volume important d'informations qui doit être maintenu pour chaque utilisateur. La nature dynamique de ces systèmes, dans lesquels les utilisateurs changent potentiellement souvent d'intérêt, complique la tâche. Cette thèse propose de nouveaux algorithmes permettant d'effectuer des recherches personnalisées de manière efficace dans des systèmes dynamiques, centralisés ou décentralisés, selon deux axes majeurs : (i) la personnalisation hors ligne qui s'appuie sur le comportement passé des utilisateurs et (ii) la personnalisation en ligne qui s'appuie sur le comportement passé et la requête en cours. Nous présentons d'abord l'algorithme P3K, qui décentralise une approche existante et réalise le traitement personnalisé des requêtes top-k hors ligne dans les systèmes pair-à-pair. Ensuite, nous présentons P4Q, une extension de P3K qui améliore les performances du système en termes de stockage, bande passante et la robustesse en distribuant le traitement des requêtes. Les deux algorithmes, P3K et P4Q, reposent sur des protocoles épidémiques pour capturer la similarité implicite entre les utilisateurs et associer ainsi à chaque utilisateur un "réseau personnel" dans lequel traiter la requête. Nos évaluations analytiques et expérimentales démontrent leur efficacité pour le traitement des requêtes top-k, y compris dans les systèmes dynamiques, en particulier que la capacité inhérente de P4Q à faire face aux mises à jours des profils des utilisateurs. Dans le but d'améliorer encore la qualité des résultats pour les requêtes représentant les intérêts émergents des utilisateurs, et donc non représentés dans son profil, nous proposons un modèle hybride d'intérêt, prenant en compte à la fois le profil des utilisateurs mais également la requête elle-même. Nous avons proposé une solution à la fois en centralisé, l'algorithme DT², qui effectue une recherche de type top-k à deux reprises: le premier top-k consiste à sélectionner dynamiquement un sous-réseau (le réseau personnel) le plus adapté à la requête et à l'utilisateur la générant. Le second top-k consiste à effectuer la recherche dans ce sous réseau. L'algorithme DT²P², exécute efficacement la personnalisation en ligne de manière entièrement décentralisée. Les résultats expérimentaux sur des traces réelles de systèmes collaboratifs, montrent que la personnalisation en ligne est prometteuse pour répondre aux préférences diverses des utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
4

Hilton, Heather. "Systèmes émergents : acquisition, traitement et didactique des langues." Habilitation à diriger des recherches, Université Lumière - Lyon II, 2009. http://tel.archives-ouvertes.fr/tel-00605188.

Full text
Abstract:
Une théorie de l'enseignement des langues ne peut pas se contenter d'une vision trop étroite de ce qu'est une langue, ni de ce que c'est que d'acquérir ou d'utiliser une langue - au risque de limiter les apprentissages qui découleraient de sa mise en pratique. Depuis la fin des années 1980, il existe une discipline scientifique spécialement consacrée aux caractéristiques linguistiques, psychologiques et sociales de l'acquisition des langues étrangères (L2), la " recherche en acquisition des langues " ou RAL en France (Second Language Acquisition Research (SLA) en anglais). S'alignant sur la recherche en psycholinguistique (développement et traitement de la langue maternelle (L1), développement et traitement du langage par les bilingues), la RAL internationale propose, depuis une dizaine d'années, un modèle " émergentiste " de l'acquisition des L2. Le langage, comme n'importe quelle autre acquisition humaine, " émerge " de nos traitements réitérés d'informations linguistiques dans des contextes sociaux déterminés, grâce à notre capacité à percevoir des régularités (patterns) dans le monde qui nous entoure et à interpréter les intentions des autres (intention reading). L'acquisition d'une langue étrangère (à la différence de la plupart des apprentissages que nous effectuons au cours de notre vie) est compliquée par le fait qu'un réseau langagier complet est déjà en place (celui de notre L1) ; il peut nous aider à comprendre le sens et le fonctionnement de la langue à apprendre, mais il peut aussi entraver nos tentatives de traitement de cette L2 (L3, L4...) en temps réel. La base théorique essentielle à une didactique des langues complète s'avère donc aussi riche et complexe que les activités langagières qu'elle tente de décrire. Elle doit prendre en compte différents phénomènes, chacun d'une assez grande complexité : les processus à l'œuvre dans le développement de la L1 ; les différences entre ces processus et ceux qui caractérisent l'acquisition d'une L2 en milieu scolaire ; les variables individuelles et sociales pouvant déterminer ou influencer les acquis ; les processus à l'œuvre dans l'utilisation d'une langue (L1 et L2). Ce document propose de faire cette synthèse théorique.
APA, Harvard, Vancouver, ISO, and other styles
5

Bavencoff, Frédéric. "Traitement de l'information appliqué aux systèmes de surveillance." Rennes 1, 2005. http://www.theses.fr/2005REN1S072.

Full text
Abstract:
Au sein du processus d'établissement d'une piste système, quatre fonctions sont identifiées : l'association plots-plots, l'association plots-pistes, l'extraction des caractéristiques cinématiques à partir des pistes (fusion cinématique), et l'identification des cibles à partir de données qualitatives. Pour les deux premières, l'évaluation analytique de la probabilité de bonne association permet de conditionner les problèmes. L'identification des cibles est proposée à travers la théorie de l'évidence. La fusion cinématique est traitée dans le cadre particulier d'un problème de trajectographie passive. En l'absence de manoeurvre significative du porteur, l'estimation de la distance à une cible en MRU est médiocre. L'apport d'informations a priori sur la vitesse ou la position de la cible via des algorithmes MCMC améliore considérablement la qualité d'estimation donnée par des intervalles HPD. *
APA, Harvard, Vancouver, ISO, and other styles
6

Soulé-Dupuy, Chantal. "Systèmes de recherche d'informations : le système videotex Infodiab : mécanismes d'indexation et d'interrogation." Toulouse 3, 1990. http://www.theses.fr/1990TOU30019.

Full text
Abstract:
Les travaux de recherche presentes dans ce memoire consistent en la realisation d'un systeme de recherche d'informations textuelles, infodiab, utilisant le langage naturel comme source d'information et comme moyen d'interrogation. Ce systeme repond a certaines contraintes liees au public vise (grand public), a l'outil videotex et au contexte medical de l'application. Notre contribution a alors permis: la construction d'un modele de representation des connaissances lexicales et semantiques au moyen d'un thesaurus; la mise en uvre d'une procedure d'indexation automatique des informations textuelles de la base permettant l'organisation de mots simples et composes, de syntagmes et de relations semantiques entre ces mots et groupes de mots (synonymie, hierarchie); l'elaboration d'une procedure d'interrogation souple et conviviale destinee a tout utilisateur. Ces procedures reposent essentiellement sur des analyses morpholexicales et statistiques. Aussi, apres avoir resitue les systemes de recherche d'informations dans les differents contextes amenant a leur developpement, nous introduisons les principaux concepts propres au domaine de la recherche d'information. Nous presentons enfin les mecanismes d'indexation et d'interrogation mis en uvre dans infodiab ainsi que les extensions en cours d'etude en vue d'eventuelles optimisations du processus de recherche
APA, Harvard, Vancouver, ISO, and other styles
7

El, Abed Mohamad. "Évaluation de systèmes biométriques." Caen, 2011. http://www.theses.fr/2011CAEN2072.

Full text
Abstract:
Les systèmes biométriques sont de plus en plus utilisés pour vérifier ou déterminer l'identité d'un individu. Compte tenu des enjeux liés à leur utilisation, notamment pour des applications dans le domaine de commerce électronique ou le contrôle d'accès physique, il est particulièrement important de disposer d'une méthodologie d'évaluation de tels systèmes. Le problème traité dans cette thèse réside dans la conception d'une méthodologie générique (i. E. , indépendante de la modalité) visant à évaluer un système biométrique. Les enjeux sont nombreux comme la comparaison des systèmes biométriques pour une application particulière, l'évaluation d'un algorithme au cours de son développement ou son paramétrage optimal. Nous proposons dans cette thèse une méthode d'évaluation de la qualité de données biométriques. La méthode proposée possède l'avantage d'être indépendante de la modalité biométrique considérée, et du système de vérification utilisé. Le comportement de cette méthode d'évaluation a été testé sur cinq bases de données publiques. Nous avons également mis au point deux méthodes d'évaluation portant sur l'usage et la sécurité d'un système biométrique. La première consiste à évaluer l'acceptabilité et la satisfaction des usagers lors de l'utilisation des systèmes biométriques. La seconde consiste à mesurer la robustesse d'un système biométrique (architecture et algorithmes) contre la fraude. Les deux méthodes proposées possèdent l'avantage d'être indépendantes de la modalité biométrique considérée. Trois systèmes d'authentification biométrique ont été utilisés pour montrer l'intérêt de ces deux méthodes
Biometric systems are increasingly used to verify or identify the identity of an individual. Given the challenges related to their use, mainly for e-commerce applications or physical access control (border control), it is important to have an evaluation methodology of such systems. The problematic addressed in this thesis is the design of a modality-independent evaluation methodology of biometric systems. The challenges are many such as the comparison of biometric systems for a particular application, the evaluation of an algorithm during its development or in setting its optimal parameters. We propose in this thesis a quality assessment method of biometric raw data. The proposed method has the advantage of being independent from the biometric modality, and the used verification system. Five public databases are used to validate the proposed method. We have also developed two evaluation methods related to the usability and the security aspects of a biometric system. The first consists of measuring users' acceptance and satisfaction when using biometric systems. The second consists of measuring the system (architecture and algorithms) robustness against attacks. The two presented methods have the advantage of being modality-independent. Three biometric authentication systems are used to show the benefits of both methods
APA, Harvard, Vancouver, ISO, and other styles
8

Visoz, Raphaël. "Traitement itératif et conjoint pour les systèmes radio-mobiles." Phd thesis, Télécom ParisTech, 2002. http://pastel.archives-ouvertes.fr/pastel-00001292.

Full text
Abstract:
L'égalisation pour les systèmes monoporteuses est un vieux domaine qui paraît peu sujet à des innovations. Cependant on peut se demander si la séparation fonctionnelle entre égalisation/détection, décodage et estimation de canal est pertinente. En effet, les traitements itératifs faisant dialoguer plusieurs entités d'une même chaîne de communication se sont avérés extrêmement fructueux dans le domaine du codage et, plus récemment, dans le domaine de l'estimation de canal et de l'égalisation. Le sujet de cette thèse est, en fonction des paramètres du système étudié (typiquement la taille de l'entrelacement, le type de canal radio mobile), d'essayer de combiner ces trois tâches de la façon la plus performante (la retransmission étant traitée comme une forme de codage canal). L'approche proposée ne s'attache pas seulement aux performances obtenues mais aussi au souci de complexité, afin de viser des applications industrielles. Trois contextes sont particulièrement étudiés (identifiés à l'aide de la Borne du Filtre Adapté): les réseaux radio haut débit du type ATM sans fil, le CDMA haut débit avec faible facteur d'étalement, les systèmes TDMA avancés (EDGE) avec modulation d'ordre élevé et/ou antennes d'émission et de réception multiple. Afin de conserver le critère Maximum A Posteriori (MAP), tout en gardant une complexité abordable, les techniques dîtes de traitement par survivant (sur treillis réduits) sont exhaustivement décrites et mises en pratique pour les contextes précédemment cités. Il est notamment démontrer que la généralisation du traitement par survivant, consistant très simplement à garder plus d'un survivant par nœud du treillis réduit, est très robuste à la propagation d'erreur même en présence de canaux à phase non minimale. Cette généralisation fut originellement introduite par Hashimoto sous le nom d' algorithme de Viterbi généralisé, la technique elle même étant dans cette thèse dénommée traitement par survivant généralisé.
APA, Harvard, Vancouver, ISO, and other styles
9

Minard, Antoine. "Perception et confort acoustiques des systèmes de traitement d'air." Phd thesis, Université de La Rochelle, 2013. http://tel.archives-ouvertes.fr/tel-01066154.

Full text
Abstract:
Cette thèse a pour but d'étudier le confort acoustique ressenti par les usagers de systèmes de traitement d'air (STA), tels que les systèmes de climatisation installés en bureaux de différentes tailles, en prenant en compte les facteurs environnementaux liés au contexte particulier d'usage de ces produits. À l'origine s'est présenté le besoin industriel d'une norme fiable d'évaluation des sons émis par les STA, pour offrir une représentation plus fidèle de la perception que le seul standard existant aujourd'hui : le niveau acoustique émis exprimé en dBA. Ce contexte impose en premier lieu une étude approfondie de la perception des sons de STA tels qu'émis par les appareils. Ainsi, une démarche rigoureuse a été suivie allant du recueil d'un nombre conséquent d'enregistrements de sons de STA jusqu'à l'établissement d'une métrique robuste de prédiction de la qualité sonore perçue. Pour ce faire, ont tout d'abord été établies les différentes familles perceptives qui constituent l'ensemble des enregistrements de sons de STA effectués. De cet ensemble de familles a été extrait un corpus de travail permettant une complète représentativité des différents types de sons émis par les STA. Les attributs auditifs pertinents pour la description perceptive de ce corpus sonore ont ensuite été identifiés en appliquant les principes de l'étude du timbre musical, déjà adoptés avec succès pour la description d'autres types de sons de l'environnement. Ces attributs auditifs ont enfin servi de base descriptive pour expliquer les préférences des auditeurs vis-à-vis des sons de STA afin d'établir un prédicteur efficace de la qualité sonore à l'aide de descripteurs audio. Dans un second temps, afin de prendre en considération le contexte écologique des STA, l'influence de deux facteurs environnementaux sur l'évaluation de la qualité sonore des STA a été étudiée dans le but d'en évaluer l'importance sur le ressenti des usagers. D'une part, comme les STA étudiés sont des appareils exclusivement installés en intérieur (bureaux), l'effet de la réverbération sur l'évaluation de la qualité sonore a été étudié à l'aide d'un système d'auralisation permettant de reproduire virtuellement la réponse acoustique d'une salle. D'autre part, l'influence du contexte attentionnel des auditeurs sur la qualité sonore perçue a été évaluée à l'aide d'une étude comparative de différentes situations d'écoute. En effet, on observe que la perception du son émis par les STA se traduit typiquement par une forme de perturbation de leur occupation quotidienne.. Il est donc apparu pertinent d'évaluer à quel point le degré d'attention portée sur le son influe sur l'évaluation de la qualité sonore par les auditeurs. Ainsi nous avons pu établir dans quelles mesures et selon quelles limites le prédicteur de qualité sonore établi peut représenter fidèlement le confort ressenti par les usagers dans un contexte offrant un meilleur degré de validité écologique que les conditions habituelles de laboratoire.
APA, Harvard, Vancouver, ISO, and other styles
10

Delouis, Sophie Marie. "Apport du multimédia aux systèmes d'information : une méthode de conception d'applications multimédias : le système MEMX." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0001.

Full text
Abstract:
Les travaux de cette recherche se situent dans le domaine de la gestion informatique d'informations objectives bruitées par des dimensions subjectives. Ces informations bruitées existent majoritairement dans le monde réel essentiellement multimédia mais les informaticiens les ignorent habituellement pour ne s'intéresser qu'à la modélisation des dimensions objectives. Après une analyse de l'évolution des données du monde réel traitées par les outils informatiques, nous nous attachons à la problématique du transfert de connaissances de la machine à l'homme. Nous proposons tout d'abord une modélisation et un formalisme permettant la gestion de ces données par simulation multimédia interactive et une méthode de conception d'un système d'information dédié à la communication humaine entre des populations qui n'ont pas les mêmes références cognitives. Des concepts clefs sont proposés : 1. Les couches d'accès aux connaissances objectives et partageables socialement ; 2. L'Objet Pivot de Connaissances ; 3. La possibilité de traiter en parallèle des contenus sémantiques sur les différents médias. Nous décrivons ensuite un système informatique comportant deux volets : Une simulation multimédia interactive qui prend en charge les paramètres bruitant les informations objectives, et un module de pilotage par un système de pilotage multi-agents hybride prenant en compte les résultats de la simulation analysés par réseau neuromimétique. Enfin, nous décrivons la méthode de mise en correspondance de contenus objectifs et subjectifs de connaissance et des technologies multimédia. Le prototype d'un système, dédié à la rééducation de la mémoire de cérébro-lésés, a pu être conçu par cette méthode ; les résultats de sa pré-validation en situation réelle en donnent une illustration
[This research work is situated within the domain of the computer objective data informations management noised by subjective informations. Those last informations stay a majority in real multimedia world observed by human beeings but computer scientists usually ignore them. They only focus on objective data modeling. After the analysis of the evolution of the real world data nature processed by computer tools, we deal with machine/man knowledge transfer. We propose a model and a formalism allowing these specific data management using an interactive multimedia simulation and a design method dedicated to human communication betweenpopulations that do not have the same knowledge references. New concepts are proposed : 1 st. The levels used to access to social knowledge ; 2nd The Central Pivot of Knowledge ; 3rd. Th possibility of a parallel processing of different messages on multimedia systems. We describe a computer system which iterate on two levels : an interactive multimedia simulation which manages parameters that noise objective informations, a driving module using an Hybrid Multi-agents knowledge expert system using the simulation results obtained by a Kohonen auto-associative map. Finally we describe the method matching objective and subjective contents of knowledge with multimedia technologies. The prototype of a system, dedicated to mentally disabled memory rehabilitation, has been design by this method ; the per-validation results give concrete illustration of its use. ]
APA, Harvard, Vancouver, ISO, and other styles
11

Gutierrez, Garcia José Octavio. "Intéraction dans les systèmes multi-agents par le moyen de normes sociales." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0159.

Full text
Abstract:
La réalisation des objectifs communs dans les systèmes multiagents est uniquement possible grâce à l'interaction et la coordination. Afin de mettre en œuvre les deux aspects d'une manière efficace, règles pour orienter le comportement d'un groupe d'agents sont nécessaires, cependant, les règles existantes sont généralement statiques, inflexibles, et inappropriées pour les grands systèmes, où l'interaction dynamique a lieu. Nous proposons la modélisation du comportement des agents par le biais des normes sociales, en particulier les obligations, la délimitation des rôles des agents en tant que composants indépendants, qui peuvent être regroupés en structures organisationnelles. En plus, nous proposons une méthode de composition dynamique pour soutenir l'interaction dynamique dans les organisations. Nous concevons les organisations comme des ensembles d'actions exprimés en termes d'obligations. Nous soutiennent que l'inclusion des obligations dans les conversations des agents, aide à diriger la composition des organisations. Afin d'atteindre cet objectif, nous mettons en place une langue de communication exprimé en obligations, qui définit comment les messages affectent l'état d'interaction des agents, et donc l'accès à leurs organisations. Nous proposons également une méthode pour créer automatiquement un agent générique compositeur, qui est capable de gérer et de composer des organisations
The achievement of common objectives in multiagent systems is only possible through interaction and coordination. Ln order to implement both aspec!s in a effective manner, mIes to direct the behavior of a group of agents are necessary, however, existing mIes are usually static, inflexible, and inappropriate for large systems, where dynamic interaction takes place. We propose mode1ing agent behavior by means of social norms, particularly obligations, delineating agents' roles as independent components, which can be grouped into organizational structures. Additionally, we propose a conversation-based composition method to support dynamic interaction in such organizations. We conceive organizations as sets of actions with pre conditions and effects, expressed in terms obligations. We argue that the inclusion of obligation-based agents' conversations aide to lead the" composition of organizations. Ln order to achieve this, we introduce an agent communication language that defines how messages affect agents' state, and thus, the access to their organizations. We also propose a method to automatically create a generic composer agent that is able to manage and compose organizations, by means of inducing obligations to their participants
APA, Harvard, Vancouver, ISO, and other styles
12

Clément, Julien. "Algorithmique probabiliste pour systèmes distribués émergents." Paris 11, 2009. http://www.theses.fr/2009PA112231.

Full text
Abstract:
Les réseaux de capteurs mobiles font leur apparition en informatique depuis plusieurs années. Certaines caractéristiques de ces réseaux sont nouvelles : les capteurs sont petits, avec peu de mémoire, peuvent tomber en panne facilement, sont mobiles. De plus, ces réseaux contiennent parfois plusieurs milliers d'entités. L'enjeu pour l'informatique est de taille. En effet, ces nouvelles propriétés posent un défi pour les concepteurs d'algorithmes que nous sommes. Il est nécessaire de repenser nos méthodes et d'assurer algorithmiquement que ces nouveaux systèmes fonctionneront correctement dans le futur. La difficulté théorique et l’enjeu de ces problèmes en font un sujet de recherche à la fois intéressant et excitant. Le but de cette thèse est de reconsidérer certains algorithmes conçus pour des réseaux classiques afin qu'ils soient performants sur des réseaux émergents. Nous ne nous sommes pas uniquement focalisé sur les réseaux de capteurs mobiles mais aussi sur d'autres systèmes ayant vu le jour ces dernières années. Enfin, nous avons tenté systématiquement d'introduire des probabilités afin de débloquer des impossibilités ou même d'améliorer les performances des algorithmes. Nous avons obtenu différents résultats, sur plusieurs types de réseaux émergents tels que les réseaux pair à pair, les réseaux de robots ou les réseaux de capteurs mobiles pour lesquels nous étendons le modèle des protocoles de population. Enfin, nous proposons un modèle formel permettant de mesurer l’étendue des connexions entre les différents types de réseaux, ou tout du moins entre les modèles les décrivant
Mobile sensor networks have appeared in computer science several years ago. Some of these networks’ characteristics are new: sensors are small, with few memory; they can be corrupted easily and are mobile. Moreover, they may contain thousands of entities. For computer science, the stake is huge. All these new properties are a challenge for us, algorithm creators. It is necessary to adapt our methods and to make sure that from an algorithmic point of view, these new systems will function correctly in the years to come. The theoretical difficulty and the stake of these issues transform them into an interesting and exciting research subject. The goal this thesis is to reconsider some of the algorithms created for classical networks in order to make them performing on these new networks. We did not restrain ourselves to mobile sensor networks and also considered other recent systems. Also, we always introduced probability in order to unblock impossibilities or to improve the performance of the algorithms. We obtained different results on several kinds of new networks as peer to peer networks, robots networks or mobile sensor networks in which we extend the population protocol model. Finally, we introduced a formal model in order to prove that at some level of abstraction, there are very strong connections between the various types of networks, or at least between the models describing them
APA, Harvard, Vancouver, ISO, and other styles
13

Najman, Laurent. "Morphologie mathématique, systèmes dynamiques et applications au traitement des images." Habilitation à diriger des recherches, Université de Marne la Vallée, 2006. http://tel.archives-ouvertes.fr/tel-00715406.

Full text
Abstract:
Ce mémoire résume une quinzaine d'années de recherche dans le monde industriel et universitaire. Il est divisé en trois parties, traitant respectivement de la théorie de la morphologie mathématique, des systèmes dynamiques et enfin des applications au traitement des images. En morphologie mathématique, nos travaux ont porté principalement sur le filtrage et la segmentation d'images. En ce qui concerne le filtrage, nous avons proposé un algorithme quasi-linéaire pour calculer l'arbre des composantes, une des structures d'organisation naturelles des ensembles de niveaux d'une image. En segmentation, nous nous sommes principalement intéressé à la ligne de partage des eaux. Nous en avons proposé une définition continue. En nous servant du formalisme récemment introduit par Gilles Bertrand, nous avons comparé les propriétés de plusieurs définitions discrètes et nous avons proposé un algorithme quasi-linéaire permettant de calculer la ligne de partage des eaux topologique. Notre algorithme repose en partie sur celui de l'arbre des composantes. Enfin, nous avons proposé des schémas hiérarchiques pour utiliser la ligne de partage des eaux, et en particulier, nous avons proposé de valuer les contours produits par un critère de saillance donnant l'importance du contour dans la hiérarchie. Ces études nous ont conduit à proposer des classes de graphes adaptés pour la fusion de région, mettant en particulier en évidence l'équivalence existant entre une de ces classes de graphes et la classe des graphes pour lesquels toute ligne de partage des eaux binaire est mince. En ce qui concerne les systèmes dynamiques, nous avons utilisé les outils issus du cadre de l'analyse multivoque et de la théorie de la viabilité pour proposer un algorithme (dit des "Montagnes Russes") qui permet de converger vers le minimum global d'une fonction dont on connaît l'infimum. L'association du cadre algébrique des treillis complets, de l'algèbre et de la théorie des inclusions différentielles nous a permis de donner des propriétés algébriques et de continuité d'applications agissant sur des ensembles fermés, comme l'ensemble atteignable ou le noyau de viabilité. Nous avons utilisé le cadre des équations mutationnelles, permettant de dériver des tubes de déformations de formes dans des espaces métriques, pour prouver de manière rigoureuse et sans hypothèse de régularité sur la forme, l'intuition selon laquelle la dilatation transforme la forme dans la direction des normales à celle-ci en chacun de ses points. Nous avons adapté au cadre des équations mutationnelles le théorème d'Euler, qui permet d'approcher une solution à une équation mutationnelle par une s'equence de points dans un espace métrique. Enfin, nous avons proposé une approche générique de simulation, fondée sur les systèmes de particules, qui a prouvé son efficacité par sa mise en œuvre en milieu industriel, en particulier, pour la simulation de foules, pour la synthèse d'images, ou encore pour la simulation du déploiement d'airbags. Nous pensons que de bonnes études théoriques aident à réaliser des applications de qualité. Inversement, de bons problèmes théoriques peuvent trouver une source dans de bons problèmes applicatifs. On trouvera dans ce mémoire le résumé d'un certain nombre de travaux dont l'intérêt industriel a été prouvé par des brevets ou des logiciels. Citons par exemple un outil de segmentation 4D (3D+temps) en imagerie cardiaque utilisé par des médecins dans le cadre de leur pratique. Nous avons travaillé pendant plusieurs années dans le domaine du traitement d'images de documents. Nous avons proposé un outil basé sur la morphologie mathématique permettant d'estimer l'angle d'inclinaison d'un document scanné. Plus particulièrement, nous avons étudié des problèmes liés à l'indexation et à la reconnaissance de dessins techniques.
APA, Harvard, Vancouver, ISO, and other styles
14

Medles, Abdelkader. "Codage et traitement de signal avancé pour les systèmes MIMO." Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000785.

Full text
Abstract:
L'utilisation d'antennes multiple à la transmission et réception dans les communications mobiles, offre d'importantes perspectives pour accroître le débit et améliorer la qualité du lien. Cela peut être effectué en utilisant un plus important multiplexage spatial et en exploitant la diversité contenue dans le canal, tout en gardant une complexité acceptable. L'état de connaissance sur le canal a un impact important sur la conception de la chaîne de transmission. En effet, l'information sur l'état du canal (CSI) au transmetteur (Tx) a un impact sur le codage alors que la qualité du CSI au récepteur (Rx) a principalement un impact sur la détection et l'estimation du canal. Dans la première partie de cette thèse nous avons considéré le cas d'absence de CSI au Tx et un parfait CSI au Rx. On propose la dispersion spatio-temporelle (STS), qui est un schéma de codage spatio-temporel basé sur le précodage linéaire en utilisant un filtre multi-entrée multi sortie (MIMO). Le STS effectue un multiplexage de flux maximal, qui est optimisé pour exploiter une diversité maximale, atteindre un bon gain codage et conserver la capacité ergodique. Un autre avantage du STS est qu'il permet d'utiliser une variété de récepteurs de complexité réduite. Le Stripping MIMO avec égalisation a retour de décision, est un récepteur non-itératif qui détecte les flux d'une manière successive. Les performances du Stripping sont données en terme du compromis entre diversité et multiplexage. Un autre récepteur non-itératif est l'égaliseur à retour de décision appliqué au cas MIMO. Il permet la détection des symboles des différents flux d'une manière conjointe mais successivement dans le temps. Le troisième récepteur proposé est itératif. Il profite de la présence d'un codage canal binaire et itère entre l'égaliseur linéaire et le décodeur canal binaire. Des simulations sont présentées pour évaluer les performances. Dans la seconde partie on considère des canaux avec un CSI partiel au Tx et parfait au Rx. La connaissance partiale dans ces cas peut être le résultat de la décomposition du canal en paramètres lents et rapides. Elle peut aussi être le résultat d'une réciprocité du canal physique entre la liaison montante et descendante. A ces différents cas on présente des modèles de canaux adaptés et on étudie la capacité ergodique. Dans la dernière partie on traite du cas d'absence de CSI aux Tx et Rx. La capacité de deux modèles de canaux, évanescent par bloc et sélectif en temps, sont étudiées. A cause de l'absence de CSI au Rx le canal doit être estimé dans les systèmes utilisés en pratique. On propose des estimateurs semi-aveugle qui combinent l'information de la séquence d'apprentissage et celle de la partie aveugle. Les conditions d'identifiabilité sont obtenues et des simulations sont proposées pour évaluer les performances.
APA, Harvard, Vancouver, ISO, and other styles
15

Nezan, Jean François. "Prototypage rapide d'applications de traitement des images sur systèmes embarqués." Habilitation à diriger des recherches, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00564516.

Full text
Abstract:
les travaux de recherche de Jean-François Nezan s'inscrivent dans le cadre général des méthodes et outils d'aide à la conception de systèmes embarqués. Plus particulièrement, les travaux présentés visent les systèmes électroniques constitués de plusieurs processeurs (MPSoC) et dédiés aux applications de compression/décompression vidéo. L'approche choisie se situe dans le cadre AAA (Adéquation Algorithme Architecture) qui utilise des modèles de descriptions haut-niveau des algorithmes et des architectures parallèles pour automatiser les processus de placement/ordonnancement et pour générer un code optimisé. La présentation montrera les apports à cette problématique issus des travaux encadrés par Jean-François Nezan, précisera également la manière dont ces travaux distincts s'intègrent dans un processus de développement cohérent et évolutif, et enfin donnera les perspectives attendues dans les années à venir.
APA, Harvard, Vancouver, ISO, and other styles
16

Gourmelin, Yves. "Optimisation de l'utilisation des systèmes de traitement des analyses biologiques." Paris 12, 1995. http://www.theses.fr/1995PA120012.

Full text
Abstract:
Le travail presente s'inscrit dans le cadre de 20 ans de pratique de la biologie hospitaliere et d'evaluations de materiels de biochimie clinique. Ce travail a pour but de proposer et promouvoir, a travers une reflexion critique sur nos travaux et ceux de nos collegues francais et etrangers, une approche aussi efficace que possible de la qualite totale en biologie medicale. Apres avoir etudie des evaluations francaises et etrangeres et les compte-rendus qui en on ete faits, nous constatons qu'il n'existe aucune homogeneite dans ces etudes, tant pour les protocoles que pour l'interpretation des resultats. Nous demontrons que les outils statistiques classiques ne sont pas suffisamment performants et qu'il faut privilegier les representations graphiques dont nous donnons de nombreux exemples issus de nos propres travaux. Cette representation graphique doit egalement etre utilisee pour les autres donnees fournies par le laboratoire d'analyses medicales, comme les resultats d'analyses pour les patients. Les outils informatiques aujourd'hui disponibles permettent de realiser aisement des presentations claires et informatives et de se placer dans un reseau de communications. Il est propose: des protocoles evolutifs adaptes aux systemes etudies des procedures permettant une auto-evaluation des representations graphiques claires et informatives
APA, Harvard, Vancouver, ISO, and other styles
17

Delest, Christophe. "Les systèmes d'inhalation dans le traitement de la maladie asthmatique." Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Toutain, Laurent. "Samson : un simulateur pour systèmes repartis et temps-réel." Le Havre, 1991. http://www.theses.fr/1991LEHA0010.

Full text
Abstract:
L'étude a été effectuée à l'institut national de la recherche en informatique et en automatique (INRIA) dans le projet Reflets. Dans cette thèse nous introduisons une nouvelle méthodologie pour la simulation des systèmes repartis et temps réel. Dans ce type de système pour que la simulation fournisse des résultats intéressants il faut que le modelé soit décrit algorithmiquement. Nous montrons que les formalises habituels (réseaux de file d'attente et réseaux de Petri) ne peuvent pas modéliser précisément de tels systèmes. Le formalisme processus/ressource, développe dans cette thèse, permet une approche objet dans la conception des modelés. Il permet surtout de représenter les contraintes et les conflits qui surviennent sur des ressources partagées dans la vie du système. Le simulateur Samson (« Simulation, Analyses and Monitoring of System and Open Networks ») est une bibliothèque de procédures et de classes qui permettent de transformer le langage C++ en langage de simulation. Nous donnons le fonctionnement d'outils qui permettent la simulation de systèmes répartis et la simulation d'ordonnanceurs. Nous terminons la thèse par la modélisation de différents algorithmes d’ordonnancement.
APA, Harvard, Vancouver, ISO, and other styles
19

Jolion, Jean-Michel. "Méthodologie de conception de systèmes d'analyse d'images : application à la microscopie électronique." Lyon, INSA, 1987. http://www.theses.fr/1987ISAL0003.

Full text
Abstract:
Le choix, ainsi que le contrôle, des processus adéquats effectuant les tâches élémentaires dans un système d'analyse d'images restent très difficiles malgré les progrès de la recherche en traitement d'images. Nous exposons dans ce mémoire une méthodologie prenant en compte la connaissance et l'expérience de l'homme pour développer l'adaptabilité de ces systèmes d'analyse d'images. Tout particulièrement, nous étudions les outils de représentation et de manipulation de la connaissance. Nous proposons, dans ce cadre, le langage ESSAI. Cette méthodologie a servi à réaliser un système d'analyse d'images, CELLULE, destiné à des utilisateurs physiciens dans le contexte de la microscopie électronique. Il facilite l'accès à des paramètres géométriques et morphologiques caractéristiques des structures cellulaires apparaissant dans certains matériaux au cours d'un processus de fatigue. Les premiers résultats statistiques issus de plusieurs études réalisées en collaboration avec les physiciens sont présentés dans le dernier chapitre du mémoire. Hormis la méthodologie employée, l'originalité du système CELLULE réside dans sa méthode de segmentation. Celle-ci utilise les principes du seuillage par modélisation de l'histogramme pour extraire des noyaux sûrs. Ceux-ci sont ensuite propagés dans l'image par un processus de grossissement de régions. Cette méthode, grace à un processus itératif s'adapte automatiquement aux particularités de chaque image.
APA, Harvard, Vancouver, ISO, and other styles
20

Doggaz, Narjes. "L'incertitude et l'imprécision dans les systèmes à multi-sources de connaissances : le système Atomic." Nancy 1, 1992. http://www.theses.fr/1992NAN10179.

Full text
Abstract:
La manipulation et la propagation d'informations incertaines ou imprécises au cours d'un raisonnement sont des questions complexes en IA, en particulier dans le cas de systèmes à multi-sources de connaissances. En effet, dans ce cas, aux problèmes habituels se superposent ceux de la cohérence des déductions effectuées par les différentes sources et de la fusion de ces déductions. Nous présentons dans cette thèse une solution générale à ce problème fondée sur le modèle de blackboard ATOME développé dans notre équipe. Le système résultant a été baptisé ATOMIC. Ce dernier permet la représentation des informations incertaines et imprécises ainsi que leur prise en compte par les sources de connaissances dans la conduite d'un raisonnement. Nous distinguons dans ATOMIC deux types d'agents: les agents du domaine (les spécialistes) et les agents de contrôle (les tâches et les stratégies). Nous avons alors montré que le problème du raisonnement approximatif est différent à ces deux niveaux et nous avons discuté les solutions proposées. Pour valider notre système, nous avons implanté une application réelle d'aide à la décision en maintenance de voirie urbaine ROSY. Cette application a permis de montrer qu'ATOMIC est capable de gérer l'incertitude et l'imprécision. Elle a également mis en évidence la facilité que procure ATOMIC pour la formalisation des connaissances approximatives issues de l'expertise humaine.
APA, Harvard, Vancouver, ISO, and other styles
21

Cunha, de Almeida Eduardo. "Test et validation des systèmes pair-à-pair." Nantes, 2009. http://www.theses.fr/2009NANT2132.

Full text
Abstract:
Peer-to-peer (P2P) offers good solutions for many applications such as large data sharing and collaboration in social networks. Thus, it appears as a powerful paradigm to develop scalable distributed applications, as reflected by the increasing number of emerging projects based on this technology. However, building trustable P2P applications is difficult because they must be deployed on a high number of nodes, which can be autonomous, refusing to answer to some requests and even unexpectedly leaving the system. This volatility of nodes is a common behavior in P2P systems and can be interpreted as a fault during tests. In this thesis, we propose a framework and a methodology for testing and validating P2P applications. The framework is based on the individual control of nodes, allowing test cases to precisely control the volatility of nodes during their execution. We also propose three different architectures to control the execution of test cases in distributed systems. The first approach extends the classical centralized test coordinator in order to handle the volatility of peers. The other two approaches avoids the central coordinator in order to scale up the test cases. We validated the framework and the methodology through implementation and experimentation on two popular open-source P2P applications (i. E. FreePastry and OpenChord). The experimentation tests the behavior of the system on different conditions of volatility and shows how the tests were able to detect complex implementation problems
Le pair-à-pair (P2P) offre de bonnes solutions pour de nombreuses applications distribuées, comme le partage de grandes quantités de données et ou le support de collaboration dans les réseaux sociaux. Il apparaît donc comme un puissant paradigme pour développer des applications distribuées évolutives, comme le montre le nombre croissant de nouveaux projets basés sur cette technologie Construire des applications P2P fiables est difficile, car elles doivent être déployées sur un grand nombre de noeuds, qui peuvent être autonomes, refuser de répondre à certaines demandes, et même quitter le système de manière inattendue. Cette volatilité des noeuds est un comportement commun dans les systèmes P2P et peut être interprétée comme une faute lors des tests. Dans cette thèse, nous proposons un cadre et une méthodologie pour tester et valider des applications P2P. Ce cadre s’appuie sur le contrôle individuel des noeuds, permettant de contrôler précisément la volatilité des noeuds au cours de leur exécution. Nous proposons également trois différentes approches de contrôle d’exécution de scénarios de test dans les systèmes distribués. La première approche étend le coordonnateur centralisé classique pour gérer la volatilité des pairs. Les deux autres approches permettent d’éviter le coordinateur central afin de faire passer à l’échelle l’exécution des cas de tests. Nous avons validé le cadre et la méthodologie à travers la mise en oeuvre et l’expérimentation sur des applications P2P open-source bien connues (FreePastry et OpenChord). Les expérimentations ont permis de tester le comportement des systèmes sur différentes conditions de volatilité, et de détecter des problèmes d’implémentation complexes
APA, Harvard, Vancouver, ISO, and other styles
22

Boulbry, Jean-Claude. "Approximation de signaux et modélisation de systèmes linéaires." Brest, 1989. http://www.theses.fr/1989BRES2017.

Full text
Abstract:
L'approximation temporelle elaboree sous la forme d'une combinaison lineaire de fonctions exponentielles reelles ou complexes est optimale au sens de la minimisation d'un critere d'erreur quadratique et est bien adaptee a la representation du signal.
APA, Harvard, Vancouver, ISO, and other styles
23

Mahdjoub, Jason. "Vers un système de vision auto-adaptatif à base de systèmes multi-agents." Phd thesis, Université de Reims - Champagne Ardenne, 2011. http://tel.archives-ouvertes.fr/tel-00937422.

Full text
Abstract:
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. La généralisation ou la mise en collaboration de ces traitements pour un système plus complet et plus robuste est un problème mal posé. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux-mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées. Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous ancrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons.
APA, Harvard, Vancouver, ISO, and other styles
24

Ikoki, Bukoko. "Traitement symbolique des systèmes multicorps avec KINDA (Kinematics and Dynamics Analysis)." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25575/25575.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Benoit, Pascal. "Architectures des Accélérateurs de Traitement Flexibles pour les Systèmes sur Puce." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2004. http://tel.archives-ouvertes.fr/tel-00007352.

Full text
Abstract:
Les systèmes sur puce intègrent sur un même substrat de silicium l'ensemble des organes nécessaires à la prise en charge des différentes fonctionnalités du système. Pour la partie dédiée aux traitements numériques, le microprocesseur central est souvent déchargé des applications critiques (traitement du signal et des images en général) par un accélérateur de traitement. C'est par rapport à l'architecture du coprocesseur que se pose la problématique de cette thèse. En effet, de nombreuses approches sont possibles pour ce dernier, et vouloir les comparer s'avère être une tâche complexe. Après avoir fait un état de l'art des différentes solutions architecturales de traitement flexibles, nous proposons un ensemble de métriques dans une optique de caractérisation. Nous illustrons alors notre méthode par la caractérisation et la comparaison d'architectures représentatives de l'état de l'art. Nous montrons que c'est par une exploitation efficace du parallélisme que les coprocesseurs peuvent améliorer significativement leurs performances. Or, malgré de réelles aptitudes, les accélérateurs ne sont pas toujours capables de tirer parti de ce potentiel. C'est pour cela que nous proposons une méthode générale de multiplexage matériel, qui permet d'améliorer les performances par l'exploitation du parallélisme dynamique (boucle et tâches). Par son application à un cas concret, un système baptisé Saturne, nous prouvons que par l'adjonction d'un contrôleur dédié au multiplexage matériel, les performances de l'accélérateur sont quasiment doublées, et ce avec un faible surcoût matériel.
APA, Harvard, Vancouver, ISO, and other styles
26

Dubreu, Christine. "Algorithmique de traitement d'image des systèmes de surveillance infrarouges air-sol." Dijon, 2009. http://www.theses.fr/2009DIJOS015.

Full text
Abstract:
Ce travail de thèse se situe dans le domaine de la vision embarquée, où des fonctions de traitement d’image doivent être assurées sous des contraintes matérielles et logicielles fortes, allant jusqu’à celles du produit industriel, puisque cette thèse est réalisée au sein de l’entreprise FLIR Systems Advanced Thermal Solutions. Ce travail concerne les algorithmes de poursuite de cibles. Deux familles ont été étudiées. La première famille comprend des techniques de poursuite par corrélation, déjà largement utilisées dans le domaine, mais auxquelles des modifications ont été apportées pour une plus grande robustesse aux occultations et déformations de la cible. La deuxième famille comprend des techniques basées sur les distributions des intensités niveaux de gris et d’autres descripteurs dans l’image, permettant de segmenter la ou les cible(s). Ces deux algorithmes sont implantés sur une carte de traitement en temps réel dont l’architecture est basée sur un couplage DSP / FPGA. Une deuxième partie du travail réalisé concerne l’évaluation des algorithmes développés. Une méthode d’évaluation est proposée, qui consiste à générer des séquences de test synthétiques et non photoréalistes, et qui permet une caractérisation plus exhaustive des algorithmes. Grâce à la connaissance des domaines de validité de chacun des algorithmes, un système comportant plusieurs algorithmes et sélectionnant automatiquement le plus adapté à la situation est envisagé
This work, realized within the FLIR Systems Advanced Thermal Solutions company, is about image processing applications on embedded systems, and especially target tracking algorithms. Two types of algorithms were studied. The first algorithms are the well-known correlation-type algorithms, to which modifications have been made to improve their robustness to occlusions and deformations. The second ones are the centroid-type algorithms, which rely on the use of the distributions of several descriptors in the image, including the pixel intensities, to get a segmentation of the target. These two types of algorithms are implanted on a real time image processing board, with an architecture relying on the conjoint use of a DSP and a FPGA. The last part of this work deals with performance evaluation of the developed algorithms. An evaluation method is presented, which relies on the generation of synthetic, non-photorealistic scenes, and which enables a more exhaustive evaluation of the algorithms. Using the knowledge of the validity domains of the algorithms, a multi-algorithms system automatically selecting the algorithms best-suited for a given situation could be developed
APA, Harvard, Vancouver, ISO, and other styles
27

Daoudi, Khalid. "Généralisations des systèmes de fonctions itérées : applications au traitement du signal." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090078.

Full text
Abstract:
Nous montrons dans cette thèse comment la caractérisation des propriétés fractales d'un signal peut être utilisée à des fins de modélisation, segmentation et synthèse. Le principe consiste à décrire comment une représentation du signal varie d'une échelle à une autre. L'idée la plus naturelle dans notre cadre est de considérer des opérateurs qui agissent sur les coefficients d'ondelette à des résolutions successives. Dans certains cas particuliers, nous montrons que ce programme revient à représenter un signal donné comme l'attracteur d'un système de fonctions itérées (ifs). Cela nous conduit naturellement à généraliser cette notion pour obtenir deux classes plus vastes de fonctions, que nous avons appelées GIFS et FAA. Nous obtenons une caractérisation de l'ensemble des fonctions de Hölder associées à des fonctions continues et une méthode non paramétrique pour estimer la fonction de Hölder d'un signal. Nous établissons aussi un formalisme multi fractal pour les FAA. Une première application concerne l'analyse de la turbulence. Nous développons un modèle compact qui permet de retrouver les principales caractéristiques multi fractales des signaux de turbulence. Une deuxième application est la modélisation de signaux de parole qui nous permet d'effectuer des synthèses de bonne qualité et qui pourrait fournir une nouvelle approche pour la caractérisation du locuteur.
APA, Harvard, Vancouver, ISO, and other styles
28

Cazes, Florian. "Méthodes de traitement innovantes pour les systèmes de commandes de vol." Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/9102/1/cazes.pdf.

Full text
Abstract:
Implantés pour la première fois en 1980, les systèmes de commandes de vol électriques (CDVE) équipent désormais tous les avions AIRBUS et constituent un standard industriel dans l’aviation civile. Les CDVE permettent notamment un meilleur contrôle de l’avion (lois de pilotage et pilote automatique plus évolués...) et la mise en place de fonctions spécifiques de protection de l’enveloppe de vol. Les objectifs des avionneurs, dans le cadre de l’amélioration globale des futurs appareils, s’orientent vers des appareils plus stables, plus maniables, moins coûteux et donc plus écologiques. Cela se traduit en particulier par l’augmentation de la disponibilité des systèmes de commande de vol. Actuellement, la solution la plus utilisée par les avionneurs consiste à augmenter la redondance et la dissimilarité matérielles. Ainsi, les paramètres de vol qui sont entre autres nécessaires au calcul des lois de pilotage, sont mesurés par plusieurs capteurs (par exemple trois sondes d’incidence, trois sondes pitot...). Pour chaque paramètre de vol, un choix ou un calcul doit être réalisé pour évincer les sources présentant un dysfonctionnement. Ceci permet de fournir une unique valeur aux autres systèmes de l’appareil tout en s’assurant sa disponibilité. Ce processus est appelé « consolidation ». L’objectif de la thèse est de réaliser des méthodes de détection de dysfonctionnements agissant sur chaque capteur puis de proposer une stratégie de fusion des informations, en vue de remplacer l’actuel processus de « consolidation ». L’idée principale consiste à créer des capteurs dits « logiciels », qui sont des estimateurs des paramètres de vol (mesurés par des capteurs externes de l’avion) utilisant d’autres paramètres de vol dissimilaires (en l’occurence des paramètres inertiels, mesurés par des capteurs différents et internes). La régression PLS (pour partial least squares) permet de réaliser cette estimation. Des stratégies de détection et des méthodes de fusion découlent de ses propriétés.
APA, Harvard, Vancouver, ISO, and other styles
29

Roussel, Stéphane. "Caractérisation et optimisation de systèmes d'imagerie polarimétriques innovants." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLO015.

Full text
Abstract:
L'imagerie polarimétrique permet de mesurer la polarisation de la lumière en chaque point d'une scène et de révéler des contrastes invisibles en imagerie classique.Nous étudions dans cette thèse le compromis entre la complexité instrumentale de ces imageurs et leur performance en présence de bruit de mesure.Le contraste que permet d'obtenir un imageur polarimétrique dépend de la capacité du polarimètre à adapter la modulation de la polarisation en fonction de la scène observée.En comparant les contrastes obtenus avec un imageur adaptatif capable de s'adapter à une scène et un imageur statique dont les états de polarisation accessibles sont en nombre limité, nous montrons que la perte de contraste est bornée et que dans le pire des cas le rapport entre les deux contrastes est de 1/9.Dans la pratique, l'utilisation d'un imageur statique est donc envisageable pour simplifier le système tout en conservant un contraste non nul.La capacité d'un polarimètre à moduler la polarisation de la lumière a aussi une influence sur la précision avec laquelle on peut mesurer son état de polarisation.Nous avons étudié la précision de mesure d'un imageur polarimétrique à division de plan focal.Ce type de système à la particularité d'avoir une matrice de micro-polariseurs directement sur le capteur de la caméra ce qui permet de mesurer un vecteur de Stokes linéaire en une seule acquisition.Nous montrons qu'en présence de bruits de mesure, les défauts de fabrication des micro-polariseurs ont une influence sur la variance d'estimation des paramètres polarimétriques et que cette différence peut être quantifiée de manière précise.D'autre part, nous montrons qu'il est possible de repousser les limites de ce type d'imageur en ajoutant un composant retardateur et en faisant plusieurs acquisitions ce qui permet de mesurer un vecteur de Stokes complet et d'améliorer la résolution spatiale.Nous déterminons les configurations permettant d'optimiser la précision de mesure en fonction de plusieurs contraintes telles que le temps d'acquisition, la résolution spatiale, le type de retardateur utilisé.La possibilité de choisir parmi toutes ces configurations donne à cet imageur la capacité de s'adapter à de nombreuses situations
Polarimetric imaging allows to measure the polarization state of the light and to reveal contrasts that are invisible with classical imaging systems.In this thesis we study the trade-off between the instrumental complexity of these imagers and their performance in the presence of measurement noise.The contrast that can be obtained with a polarimetric imager depends on its capacity to modulate the polarization depending on the observed scene.By comparing the contrasts obtained with an imager that can be adapted to a given scene and a static imager which polarization states are fixed, we show that the loss of contrast is limited and that in the worst case the ratio between both contrast is 1/9.In practice static imagers that are easier to build and operate can thus be a good alternative to adaptive imagers.The polarimeter's ability to modulate light polarization influences the measurement precision of its polarization state.We have studied the measurement precision of a division of focal plane polarimeter.The distinguishing aspect of this kind of imager is that a matrix of micro-polarizers is placed directly on the camera sensor which allows to measure a linear Stokes vector in one acquisition.We show that in the presence of measurement noise, the manufacturing defects of the micro-polarizers have an influence on the estimation variance of polarimetric properties and that this difference can be precisely quantified.Moreover, we show that it is possible to push the boundaries of this type of imager by doing multiple acquisitions and adding a retarder in front of the camera which allows to measure the full Stokes vector and to improve spatial resolution.We determine the configurations that optimize the measurement precision as a function of different constraints such as acquisition time, spatial resolution and the type of retarder.The possibility to choose among all these configurations gives to this imager the ability to adapt to many situations
APA, Harvard, Vancouver, ISO, and other styles
30

Piskorski, Stéphane. "Optimisation de codes multimédias pour systèmes embarqués." Paris 11, 2009. http://www.theses.fr/2009PA112215.

Full text
Abstract:
Les algorithmes de traitement d’images requièrent des puissances de calculs de plus en plus grandes pour satisfaire des applications toujours plus gourmandes. Afin d’être capable de traiter efficacement un flux vidéo en temps réel, un système à microprocesseur embarqué doit être optimisé avec le plus grand soin. Cette thèse se propose d’étudier ces optimisations à plusieurs niveaux. Tout d’abord au plus proche du matériel à travers la modification du jeu d’instructions et des unités de calcul d’un processeur, pour que celui-ci travaille de façon efficace pour un ajout minimal de matériel et une consommation électrique maîtrisée. Un cas d’ application est présenté pour des algorithmes de localisation embarqués robustes faisant appel au calcul par intervalles. Ensuite par l’étude de la génération de blocs matériels pour processeurs logiciels sur FPGA, capables d’accélérer non plus seulement une instruction mais toute une fonction de calcul. Enfin à l’échelle d’un traitement complet, un outil de génération de code de filtres bas-niveau – IPLG – est présenté. Celui-ci permet de trouver automatiquement la forme optimale d’un code C de traitement systématique à base de stencils, en explorant les possibilités de fusion de nids de boucle de calcul, et en appliquant les techniques de rotation de variables, de déroulage de boucles et d’optimisation de la localité des données au code créé
Image processing algorithms tend to become more and more computation-power hungry, while video applications ask for greater amounts of data to process. In order to be able to sustain real-time video streams, microprocessor-based embedded systems have to be carefully tuned. This thesis focuses on studying the required optimizations on several scales. Firstly by modifying the instruction set and computation units of a processor, to improve its computation efficiency at a reasonable hardware cost, leading to interesting electrical consumption results. An applicative example is given through the implementation of a robust embedded localization algorithm based on interval analysis. Secondly by studying the best way to generate hardware modules for soft-core processors on FPGA, in order to not simply accelerate a few instructions but a complete computation bloc. Finally, at a complete treatment scale, a low-level image-processing code generation tool – IPLG – is proposed. This tool automatically generates optimally written stencil-based C code, by exploring all possible computation-loop fusions, and by applying variable rotation, loop-unrolling and data-locality improvement techniques
APA, Harvard, Vancouver, ISO, and other styles
31

Haddad, Yoram. "Performances dans les systèmes répartis : des outils pour les mesures." Paris 11, 1988. http://www.theses.fr/1988PA112267.

Full text
Abstract:
Le thème général de cette thèse est la construction d'outils pour mesurer les performances dans les systèmes répartis. Dans la première partie, nous présentons les problèmes de mesures de performance qui ont conduit à la construction d'un prototype de système réparti destiné à l'étude d'applications réparties dans un réseau hétérogène d'ordinateurs. Dans la partie principale, nous développons une méthode d'estimation du temps global dans un système réparti. Après avoir présenté la démarche de construction et de validation de notre estimateur, nous formalisons le problème pour obtenir une solution plus générale et prouver la validité statistique de notre méthode. Cette approche nous conduit à un principe d'incertitude et à un résultat d'optimalité qui s'appliquent à toutes les méthodes de synchronisation d'horloges et d'estimation d'un temps global dans les systèmes répartis. Nous appliquons ensuite notre méthode à l'estimation d'un temps global au moyen d'horloges à granularité forte. Enfin, nous étudions les qualités "pratiques" de notre méthode pour son application dans des systèmes opérationnels. Dans une dernière partie, nous présentons la construction d'un outil logiciel portable permettant l'inclusion automatique de modules de mesure dans des applications réparties
This thesis main concern is creating tools to monitor performance in distributed systems. In the first part, we present the performance evaluation problems that have led us to build a test bed for monitoring distributed applications involving heterogeneous computers. In the main part, we expose a technique to estimate a global time in a distributed system. After presenting the way we build and validate our estimator, we formalize the problem to obtain a more general solution and to prove the statistical validity of our technique. This approach leads us to an incertitude principle and to an optimality result valid for all clock synchronization algorithms and global time estimation techniques that can be used in a distributed system. We then use our technique to estimate a global time using clocks with large granularity. Finally, we study the "practical" aspects of our technique for its use in operational systems. In the last part, we present the building of a portable software tool allowing the automatic inclusion of monitoring modules in distributed applications
APA, Harvard, Vancouver, ISO, and other styles
32

Fassino, Jean-Philippe. "Think : vers une architecture de systèmes flexibles." Paris, ENST, 2001. http://www.theses.fr/2001ENST0037.

Full text
Abstract:
L'objectif de cette thèse est de spécifier et d'implanter une architecture de système d'exploitation flexibles. Cette architecture est nommé THINK. Nous montrons qu'il est possible de capturer sous la forme de canevas logiciels des concepts et des principes d'architecture rencontrés dans les systèmes d'exploitation centralisés, embarqués ou répartis. Ces concepts sont au nombre de trois; des composants, des liaisons modélisant les interactions, et des domaines modélisant I'isolation. Cette approche autorise la construction de noyaux d'infrastructure variés, susceptibles d'être mis en place, statiquement ou dynamiquement, depuis des systèmes dédiés à une application jusqu'aux systèmes monolithiques classiques en passant par les différentes formes de micronoyaux. Nous implantons sur ce modèle une bibliothèque, nommée KORTEX, destinée aux machines POWERMACIN-TOSH. Cette blbliothèque propose un ensemble de composants systèmes, offrant d'une part des services du plus bas niveau comme les pilotes de périphérique, et d'autre part des services de haut niveau comme la gestion des processus et des connexions réseaux. La composition arbitraire de ces composants construit le noyau d'infra-structure désiré. Les évaluations quantitatives du modèle d'architecture THINK et de la bibliothèque KORTEX de composants systèmes démontrent la viabilité de l'approche proposée. Les implantations du concept de liaison n'engendrent pas un coût inacceptable et elles permettent même d'obtenir des performances similaires à celles de la litté-rature. De plus, les bénéfices apportés par la structure flexible peuvent potentiellement être importants. Tout d'abord, les évaluations montrent un accroissement des performances d'exécution sur des noyaux de systèmes classiques. Ensuite, les besoins en ressources matérielles requis pour l'exécution des systèmes sont grandement diminués e qu' offre des perspectives d'utilisation dans les environnements fortement contraints.
APA, Harvard, Vancouver, ISO, and other styles
33

Guionnet, Nicolas. "Locus : Un modèle d'analyse locale de l'échec pour l'élaboration de systèmes d'agents situés." Pau, 2004. http://www.theses.fr/2004PAUU3009.

Full text
Abstract:
La création de systèmes robustes, adaptatifs, évolutifs et leurs applications aux problématiques actuelles du domaine sont l'objet de recherches diverses. Ces recherches n'ont abouti que partiellement. Ainsi, la création de modèles de perception de l'environnement, d'action et d'interaction permettant de définir chaque individu agent ainsi que la structure du SMA, est encore nécessaire. Afin d'évaluer l'applicabilité de LOCUS, nous l'avons confronté à un ensemble de situations concrètes ou théoriques. Cette confrontation a montré que LOCUS permettait la formalisation des liens de causalité sur le domaine et d'étudier l'impact des hypothèses définissant les cas d'application sur ces liens de causalité. Nous proposons plusieurs applications découlant des exemples applicatifs et employant des systèmes d'agents réactifs et situés obtenus grâce à LOCUS, notamment un système de contrôle du flux dans une application Grid
The creation of stables and adaptative systems and their application to the problems of computer science is the subject of various researches. Thus, the creation of action and perception and interaction models leading to the definition of individual agents are still necessary. The study of the causality links between the state of different areas of the domain gave birth to the LOCUS model. In order to evaluate the applicability of LOCUS, we confronted it to various examples, practical or theoritical. That confrontation showed that LOCUS lead to the formalization of causality. We proposed various examples of applications obtained thanks to LOCUS, including a flow control for Grid application
APA, Harvard, Vancouver, ISO, and other styles
34

Voisine, Nicolas. "Approche adaptative de coopération hiérarchique de méthodes de segmentation : application aux images multicomposantes." Rennes 1, 2002. http://www.theses.fr/2002REN10128.

Full text
Abstract:
Afin de gérer intelligemment les méthodes de segmentation utilisées et de fusionner au mieux l'information extraite par chacune, nous proposons une approche adaptative de coopération hiérarchique de méthodes de segmentation. Cette approche est fondée sur des opérateurs d'évaluation et de validation qui extraient l'information valide d'un résultat. Nous avons développé deux systèmes de coopération : Un système de coopération séquentiel met en compétition d'accès les méthodes de segmentation. Après une phase de pré-hiérarchisation relative à un objectif, chaque méthode se voit attribuer un ordre de passage lui donnant priorité de segmenter les régions de l'image qui n'ont pas été détectées et validées par d'autres méthodes avant elle. Nous montrons une généralisation de cette approche aux images multi-composante. Un autre système de coopération parallèle met en compétition de compétence les méthodes de segmentation. Il retire (selon un opérateur d'évaluation) le meilleur résultat. Nous montrons l'efficience des systèmes sur la banque d'images GDR-PRC ISIS.
APA, Harvard, Vancouver, ISO, and other styles
35

Sliwa, Tadeusz. "Traitement d'images pour la vidéosurveillance dans les transports en commun." Dijon, 2003. http://www.theses.fr/2003DIJOS043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Michel, François. "Validation de systèmes répartis : symétries d'architecture et de données." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT099H.

Full text
Abstract:
Cette these s'interesse a la validation de systemes repartis par analyse de l'espace des etats accessibles. Les symetries presentes dans un systeme, dans son architecture ou dans ses donnees, sont utilisees pour n'explorer qu'une partie des etats accessibles tout en conservant les capacites de verification et de test. L'exploitation des symetries permet alors l'analyse de systemes que l'explosion combinatoire mettait sinon hors de portee des techniques de description formelle. L'idee de base est de reduire le nombre des etats examines en ne considerant qu'un seul representant par classe d'equivalence d'etats symetriques. Grace a des structures syntaxiques introduites dans le langage de specification, le concepteur peut indiquer les symetries d'architecture ou de traitement du systeme considere. Les principales contributions de cette these sont: - les concepts de pool d'agents permutables et de trames de donnees, qui permettent les prises en compte respectives des symetries d'architecture et de donnees, et leur integration dans le langage ccs, - l'interpretation de ces constructeurs sur le domaine des graphes de comportement, au moyen d'une semantique transitionnelle, - la conception d'une algorithmique basee sur les concepts precedents pour la verification par bissimulation et la generation de tests
APA, Harvard, Vancouver, ISO, and other styles
37

Ene, Cristian. "Un modèle formel pour les systèmes mobiles à diffusion." Aix-Marseille 2, 2001. http://www.theses.fr/2001AIX22061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Bouzid, Zohir. "Modèles et algorithmes pour les systèmes émergents." Paris 6, 2013. http://www.theses.fr/2013PA066589.

Full text
Abstract:
Les réseaux de robots autonomes sont des entités mobiles qucommuniquent uniquement ˆ travers leurs mouvements et l'observation deleurs positions respectives. Ils sont anonymes, sans mémoire et sanssystème de coordonnées global, ni une notion commune de ladistance. Nous nous concentrons sur l'étude algorithmique des problèmes derassemblement et de convergence des robots quand ils sont sujets ˆ despannes. Notre première contribution est de nature géométrique. Nousfournissons un protocole pour calculer le point Weber d'une grandeclasse de configurations qui ont une symétrie rotationnelle. Se basant sur cette primitive, nous présentons un algorithme quirésout le problème du rassemblement en présence de n'importe quelnombre de pannes franches. Ensuite, nous abordons le problème de convergence quand les robotspeuvent subir des pannes byzantines qui sont plus difficiles àmanipuler que les pannes franches. Nous fournissons plusieurs bornesoptimales qui relient le degré de synchronie du système àsa résilience. Enfin, nous Étudions les robots qui sont dotées de mémoire et nousmontrons que ce modèle est plus fort que le modèle de passage demessages
Networks of autonomous robots are mobile entities that communicate only through their movements and the observation of their respective positions. They are anonymous, without memory and without a global coordinate system nor a common notion of distance. We focus on the algorithmic study of the problems of gathering and convergence of robots when some of them may be subject to failures. Our first contribution is of geometric nature. We provide a protocol to compute the Weber point of a large class of rotational symmetric configurations. Based on this primitive, we present an algorithm that solves thegathering problem in presence of any number of crash failures. Then, we address the convergence problem when robots may incur byzantine failures which are harder to handle than crash failures. We provide several tight bounds relating the degree of synchronicity of the system to its resiliency. Finally, we study robots that are endowed with memory and we show that this model is stronger than the message passing model. The different node types in an uniformized manner. Our experimental results show that this model is able to take in account the correlations between labels of different node types
APA, Harvard, Vancouver, ISO, and other styles
39

Grange, Pascal. "Systèmes distribués : transparence, masquage et outils associées." Bordeaux 1, 2005. http://www.theses.fr/2005BOR13074.

Full text
Abstract:
Ce document traite du problème, toujours actuels, de l'unification des paradigmes de programmation locale et de programmation distribuée. Après une définition de cette notion d'unification, nous présenterons cinq caractéristiques des systèmes distribués que nous considérons comme fondamentales : les pannes partielles, la concurrence, la confiance, la mémoire répartie et la latence. Nous verrons comment ces caractéristiques peuvent être prises en charge de façon transparente dans un but d'unification ainsi que les contraintes imposées par une telle transparence. Nous présenterons ensuite nos contributions dans le domaine de la prise en charge de la caractéristique de la mémoire répartie au traversd e la bibliothèque de communication JToe. Par aileurs, nous avons contribué à la prise en charge de la latence par l'introduction transparente d'asynchronisme dans une application orientée objets. Nous verrons les possibilités offertes par ce nouvel asynchronisme et nous prouverons, à l'aide du π-calcul, le respect de la sémantique séquentielle de l'application synchrone d'origine.
APA, Harvard, Vancouver, ISO, and other styles
40

Rakotoson, Michard Pierre. "Synthèse des caractéristiques et techniques de développement de la commande des systèmes dis-continus : application aux systèmes de production flexible batchs." Lille 1, 1993. http://www.theses.fr/1993LIL10094.

Full text
Abstract:
Ce mémoire présente les caractéristiques spécifiques des systèmes dis-continus. Notre analyse porte sur la considération des éléments pertinents de la fabrication (comme la notion de ressource, de produit, de processus de fabrication, et leur dynamique) pour le développement du système de commande. La structuration possible en commandes inter-ressources ayant la fonction de pilotage et de coordination qui vont paramétrer et assujettir un niveau de commandes intra-ressources de transformation du produit nous a alors permis de réutiliser l'approche orientée produit lors de la phase de conception de la commande. Les systèmes de production flexibles batchs présentent des caractéristiques discontinues et des modes de préparation qui favorisent l'adaptation de méthodes basées sur cette approche pour la conception de leurs commandes inter-ressources. Une démarche transposée nous conduit à l'obtention d'un modèle de commandes, de nature statiques et non déterministes, qui est traduit en ordres exécutables pour leurs commandes intra-ressources par un module d'allocateur de ressources. L'inadéquation de l'approche produit pour la réalisation des commandes intra-ressources nous amène à développer une démarche appropriée. Elle consiste à privilégier la spécification du plan de circulation des fluides sur des critères fonctionnels et de contrôle-commande. La traduction en automatismes implantables sur des organes informatiques représente alors une étape de finition qui peut être facilitée par l'assemblage et l'estampillage de composants logiciels préexistants. Cette méthode est supportée par un outil d'aide et de génération d'automatisme que nous avons développé dans le cadre d'une collaboration recherche-industrie
APA, Harvard, Vancouver, ISO, and other styles
41

Debray, Bruno. "Systèmes d'aide à la décision pour le traitement des déchets industriels spéciaux." Phd thesis, INSA de Lyon, 1997. http://tel.archives-ouvertes.fr/tel-00850534.

Full text
Abstract:
Les déchets industriels spéciaux constituent une source potentielle de pollution importante. A ce titre il est nécessaire de les traiter en vue d'aboutir soit à une valorisation soit à un rejet écocompatible et au stockage d'un déchet ultime. La mise en oeuvre pratique de ces traitements fait intervenir une grande variété de filières et de procédés suivant la nature et les caractéristiques du déchet. Le choix d'une solution de traitement est une opération délicate qui implique la connaissance de toutes les options disponibles et de leurs critères de choix. Pour aider les producteurs de déchets, nous avons identifié dans deux contextes différents, les raisonnements et les données qui permettent d'aboutir à la liste des solutions applicables : centres et filières de traitement dans le cas du traitement externe, procédés de traitement et position dans l'unité productrice du déchet pour le traitement interne. Ce travail méthodologique, dont l'objectif est la proposition d'outils pour aider les industriels dans le choix de solutions de traitement, a débouché sur deux systèmes informatiques d'aide à la décision : * le premier pour l'orientation des déchets industriels spéciaux vers des solutions externes de traitement, * le second pour l'identification de solutions de traitement interne pour les ateliers de traitement de surface. A travers le développement de ces outils, nous avons pu mettre en évidence l'importance des systèmes d'identification et de caractérisation des déchets et proposer une méthode générale pour l'identification de solutions de traitement.
APA, Harvard, Vancouver, ISO, and other styles
42

Sibade, Cédric. "Compression de données pour les systèmes de traitement de document grand format." Université de Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0176.

Full text
Abstract:
Les systèmes de traitement de documents proposent de multiples fonctionnalités, telles que l’impression, la copie, la numérisation, auxquelles il est possible d’appliquer différentes opérations de traitements d’image. Dans le cadre des documents grand format et pour des utilisations productives, ces architectures de traitement de données sont en présence de flux massifs d’image. L’étude de l’évolution de tels systèmes permet d’envisager une augmentation des tailles et des débits de ces flux. Cette thèse se propose d’étudier ce que la compression d’image signifie pour une utilisation au sein de ces architectures de traitement de documents grand format. Une étude algorithmique est réalisée ; elle permet d’investiguer les apports et les modes de fonctionnement des méthodes de compression pour ce domaine. Pour être intégrées sur les chemins de données de l’architecture de traitement d’images grand format, une phase d’analyse des impacts sur le système doit être réalisée. Cette étude a donc permis la mise en place d’une méthodologie de description et d’évaluation du comportement du système et de ses flots de données. Un outil de simulation basé sur cette modélisation du comportement a été réalisé. Cette approche aboutit à une proposition d’optimisation du chemin de données existant avec les formats compressés, pour éviter des étapes coûteuses de compression et de décompression. Nous montrons qu’il est recommandé d’étendre ses apports, initialement visant des fins de stockage et de transfert de données, en adaptant les traitements d’images effectués pour un format compressé. Cette étude évalue les possibilités de ces traitements à effectuer sur le flux compressé. Elle prend en compte les transformations actuellement implémentées au sein des systèmes grand format et propose une méthode innovante pour le rendu des images halftone compressées par JPEG
Technical document systems are proposed as multi-functional machines, to allow print, copy or scan works, along with the application of different image processing operations. Targeting wide format documents and in a productive environment, these data processing architectures are managing huge image data flows. By investigating such systems, we emphasize flow size and data rate increasing. This PhD report first investigates the behavior of image compression, within such wide format printing systems data flows. A study targeting compression potentialities for this specific domain is proposed. However, compression solutions definition and implementation must be preceded by an analysis of the behavioral impact for the global system. Within this study, we therefore propose a strategy and a method to perform functional measurements for this system and data flow, including compression solutions. A simulation tool based on this behavioral modelisation has been realised. Confirmed by this approach, we therefore propose to enhance the existing data flows with a compressed format, by avoiding costly compression and decompression operations. It is recommended to extend its benefit, initially targeting only storage and data transfer, to image processing functionalities, by keeping this compressed format. We therefore investigate the potentialities of such compressed-domain processing, in order to propose a more global use for printing and document processing products. An innovative halftoning method applied on JPEG compressed images is proposed in the context of these compressed-domain processing operations
APA, Harvard, Vancouver, ISO, and other styles
43

Hilt, Attila Gabor. "Transmission et traitement optiques des signaux dans les systèmes de télécommunications hertziens." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0056.

Full text
Abstract:
La demande de services large bande, l'accroissement du nombre d'abonnes et le manque de canaux radio suffisamment larges poussent les frequences porteuses des systemes point-multipoint actuels vers la fenetre millimetrique. A cause des pertes elevees lors de la propagation en espace libre de ces frequences, la transmission optique devient necessaire. Dans les picocellules, les abonnes sont connectes par liaisons sans fil d'une centaine de metres. Dans notre travail, nous etudions la transmission et le melange de signaux microondes dans de tels systemes. Nous presentons des resultats theoriques et experimentaux sur des lasers, des photodiodes et des recepteurs optiques tres rapides. Nous caracterisons les photodiodes pin avec un modele incluant les effets de la tension de polarisation, l'illumination, les parasites et les limitations physiques. Nous montrons que la transmission optique a 1550 nm est limitee par la dispersion chromatique des fibres plutot que par la bande passante du modulateur ou du detecteur. Sur la base d'un modele coherent, nous analysons les methodes particulieres de transmissions optiques telles que la generation du second harmonique ou la modulation optique bande laterale unique. Les effets de coherence sont discutes dans des structures optiques de traitement du signal microonde. Nous presentons le melange opto-microonde avec des transistors ou des photodiodes a large bande. Il permet un gain de conversion et la generation d'harmoniques. Nous rapportons une nouvelle technique de melange utilisant un composant optique passif, un interferometre de mach-zehnder desequilibre. Une methode de generation d'ondes millimetriques, utilisant un synthetiseur millimetrique asservi par une reference microonde transmise optiquement est proposee. Enfin, nous montrons l'effet des interferences radio sur le teb du canal sans fil. Nous expliquons les interferences avec une nouvelle methode pour caracteriser l'immunite des recepteurs microondes numeriques.
APA, Harvard, Vancouver, ISO, and other styles
44

Girod, Jean-Pierre. "Extraction de primitives en traitement d'images par modélisation des systèmes visuels biologiques." Nancy 1, 1994. http://www.theses.fr/1994NAN10211.

Full text
Abstract:
Ce mémoire introduit une nouvelle méthode d'extraction des primitives contours et points anguleux dans des images digitalisées en niveaux de gris, déduit des systèmes visuels biologiques. Les systèmes visuels biologiques, étudiés au travers de la bibliographie biomédicale afférente, se présentent sous la forme de modules fonctionnels places en cascade. L'il, le corps genouillé latéral, ainsi que les aires visuelles corticales v1 et v2, en sont les premiers éléments. L'analyse de ces modules, en vue de trouver tout ou partie des mécanismes auxquels ils doivent leurs performances, a permis de proposer un modèle capable de remplacer les operateurs habituellement employés pour la segmentation par les contours et la détection des points anguleux. Le modèle présenté tire profit des particularités de chaque module pour aboutir à un ensemble homogène et performant. Ainsi, l'antagonisme centre-périphérie de la rétine assure la localisation précise des contours ; les filtres directionnels des colonnes corticales de l'aire v1 atténuent le bruit sans affecter le signal ; l'analyse en demi-contours de l'aire v2 permet la détection des coins et facilite l'affinage des contours par inhibition latérale. Proposé comme une alternative aux algorithmes classiques de détection des contours et des points anguleux, dépourvu de réglage et peu sensible aux caractéristiques des images à traiter, ce modèle offre des performances supérieures dans la plupart des cas. De plus, il est imprésentable en temps réel sur des architectures de type pipe-line ou neuromimétiques
APA, Harvard, Vancouver, ISO, and other styles
45

Lemarinier, Pierre. "Fiabilité et traitement de la volatilité dans les systèmes de calcul global." Paris 11, 2006. http://www.theses.fr/2006PA112258.

Full text
Abstract:
Les systèmes de calcul agrègent de plus en plus de processeurs et sont par conséquent plus fréquemment affectés par des pannes franches. Les applications de calcul à passage de messages sont en grande partie développées selon la norme MPI. De nombreux travaux sur la tolérance aux pannes automatique et transparente pour les applications ont été menés au sein des librairies MPI. Tous ces travaux sont basés sur des techniques de points de reprise, coordonnés ou non coordonnés. Néanmoins aucune comparaison entre les différents protocoles n'a été réalisée en terme de coût et d'impact sur les performances des applications. Nous proposons dans cette étude la première comparaison entre ces différents protocoles. Dans un premier temps, nous décrivons dans un modèle commun un protocole à enregistrement de message pessimiste distant, un protocole à enregistrement de messages pessimiste sur l'émetteur, un protocole à enregistrement de messages causal ainsi que deux protocoles à points de reprise coordonnés : un protocole non bloquant et un protocole bloquant. La deuxième partie de cette thèse décrit les implémentations des quatre premiers protocoles dans la librairie MPICH et l'implémentation du dernier protocole dans la librairie MPICH2. Nous résumons les résultats des expériences menées sur les protocoles à enregistrement de messages pessimistes puis nous exposons en détail les résultats des mesures de performances réalisées sur les implémentations des protocoles causal et à points de reprise coordonnés à l'aide de micro benchmarks et d'applications numériques, pour différentes plateformes de calcul
The distributed computing systems gather more and more processors and are thus subjected to higher failure frequencies. The message passing applications are now generally written using the MPI interface. Numbers of automatic and transparent fault tolerant protocols for message passing libraries have been proposed and implemented. All these protocols rely on checkpoint/restart mechanisms, coordinated or not. However, no comparison of these protocols have been presented yet, in term of cost on the initial performance of MPI applications. We expose in this paper the first comparison between the different kind of fault tolerant protocols. The first part describes in a common model five protocols: a distant pessimistic message logging protocol, a sender based pessimistic message logging protocol, a causal message logging protocol, a non blocking coordinated checkpoint protocol and finally a blocking coordinated checkpoint protocol. The second part of this thesis presents the implementation of the fourth first protocols in the MPICH library and the fifth protocol in the MPICH2 library. Then we sum up the experiment results we obtained for the pessimistic protocols implementation and detail the performance measurements of the causal implementation and the coordinated checkpoint implementations, using micro benchmarks and NAS applications on different computing systems
APA, Harvard, Vancouver, ISO, and other styles
46

Tonda-Goldstein, Sylvie. "Architectures pour le traitement optique des signaux hyperfréquence : applications aux systèmes radar." Paris 6, 2004. http://www.theses.fr/2004PA066322.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Cozette, Olivier. "Contributions systèmes pour le traitement de grandes masses de données sur grappes." Amiens, 2003. http://www.theses.fr/2003AMIE0309.

Full text
Abstract:
Cette thèse se concentre sur la pagination et l'accès aux données distantes. La première partie décrit MMUM/MMUSSEL, outil de gestion de la pagination en mode utilisateur qui permet d'adapter celle ci aux particularités des applications. Cet outil a permit d'améliorer certaines applications, puis l'étude de la pagination du solveur de matrice creuse MUMPS. Cette étude a permis la création d'une interface avec la pagination permettant l'amélioration de la pagination. Dans la seconde partie, cette thèse décrit une bibliothèque d'accès efficace aux entrées/sorties distante. Une modélisation des grappes dans le cas d'entrées/sorties intensif a permis l'étude des gains engendrés par le passage direct des données du disque à la carte réseau. Puis l'outil READø a été développé. Il se compose d'un pilote de périphérique, d'une bibliothèque et d'un pilote embarqué dans la carte réseau. Ses performances sont comparées avec NBD et PVFS.
APA, Harvard, Vancouver, ISO, and other styles
48

Bacha, Inès. "Traitement symbolique des systèmes d'équations différentielles non linéaires au voisinage des singularités." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10078.

Full text
Abstract:
Cette these se rattache a l'etude locale des equations differentielles, elle est composee de trois parties dependantes. Dans la premiere partie, nous presentons differentes theories telles que les formes normales, les transformations quasi-monomiales ainsi que celle du polygone de newton afin de mettre en place un algorithme pour simplifier les systemes planaires d'equations differentielles au voisinage des singularites isolees. Cet algorithme se base essentiellement sur les travaux d'a. Bruno sur les solutions locales des systemes d'equations differentielles. Quelques exemples d'application sont donnes afin d'illustrer ce travail. Dans la deuxieme partie, les differentes theories precedentes ainsi que l'etude des courbes algebriques nous permettent d'etendre cet algorithme dans l'espace. Dans la partie finale, nous proposons une methode de reduction de l'ordre des systemes differentiels en dimension n.
APA, Harvard, Vancouver, ISO, and other styles
49

Burcklen, Marie-Anne. "Conception conjointe de l'optique et du traitement pour l'optimisation des systèmes d'imagerie." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLO001.

Full text
Abstract:
Aujourd'hui, les systèmes d'imagerie sont des instruments complexes qui font interagir optique, détecteur et traitement numérique. Afin de dépasser les performances d'imagerie conventionnelles, il devient nécessaire de tenir compte de cette interaction dès la phase de conception et d'optimiser simultanément les paramètres optiques et numériques. L'objectif de ma thèse est de développer des méthodes d'optimisation conjointe pour obtenir de nouveaux systèmes à performances d'imagerie augmentées et de complexité réduite. J'ai tout d'abord étudié le cas de l'augmentation de la profondeur de champ d'une combinaison optique existante. Un masque de phase binaire a été inséré au voisinage du diaphragme d'ouverture d'un objectif ouvert à f/1.2 et a été optimisé de façon conjointe avec un traitement de déconvolution en utilisant le critère basé sur la qualité de l'image restaurée. L'augmentation de profondeur de champ a été quantifiée et des mesures précises de la fonction de transfert de modulation ont permis de valider expérimentalement l'efficacité de ce type d'imageur non-conventionnel. Dans ces premiers travaux, seul le masque de phase a été modifié lors de l'optimisation. Pour accroître encore l'efficacité du système d'imagerie, il est nécessaire d'optimiser l'ensemble de tous les paramètres optiques. Or l'optimisation d'une combinaison optique est un problème complexe qui doit tenir compte de contraintes spécifiques et nécessite l'utilisation d'un logiciel de calcul optique dédié, comme le logiciel Code V qui a été utilisé dans cette thèse. Comme le critère d'optimisation conjointe basé sur la qualité image n'est plus adapté à ce type d'optimisation, j'ai proposé un nouveau critère. Il se base sur les critères d'optimisation classiques de Code V, qui ont été modifiés de façon à prendre en compte de manière implicite le traitement de déconvolution. Cette méthode de conception a tout d'abord été validée dans le cas de l'optimisation d'un masque de phase pour l'extension de profondeur de champ d'une combinaison optique existante. Les résultats obtenus sont équivalents à ceux donnés par l'optimisation suivant le critère de qualité d'image. La technique a ensuite été utilisée pour améliorer une combinaison conventionnelle existante à très forte ouverture (f/0.75) : en modifiant ses paramètres optiques, la combinaison a été allégée et la qualité d'image a été homogénéisée sur l'ensemble du champ. Enfin, j'ai appliqué cette méthode de conception conjointe pour résoudre le problème important de la sensibilité thermique d'un système infrarouge dans la bande 8-12 µm. Cette méthode a permis de concevoir, à partir de zéro, plusieurs types de combinaisons optiques à courte et longue focale, rendues insensibles à la température. Elles présentent un schéma optique plus simple que les solutions athermalisées de façon classique, tout en ayant des performances d'imagerie similaires voire supérieures
Imaging systems are now complex instruments where lens, sensor and digital processing interact strongly together. In order to obtain better imaging performance than conventional imaging, it has become necessary to take into account this interaction in the design stage and therefore to optimize jointly optical and digital parameters. The objective of my thesis is to develop joint optical-digital optimization methods in order to obtain imaging systems with higher performance and lower complexity. I first considered extending the depth of field of an already existing lens. A binary phase mask has been inserted in the vicinity of the aperture stop of a f/1.2 lens, and it has been optimized jointly with a deconvolution filter using the restored image quality criterion. The increase in depth of field has been quantified, and modulation transfer function measurements have proved experimentally the efficiency of this unconventional imaging system. During this first study only the phase mask was optimized. To further increase the imaging system efficiency, all the optical parameters need to be optimized. However, optical design is a complex problem in which specific constraints have to be taken into account and for which one needs to use a dedicated software. In this thesis I used the Code V optical design software. Since the image quality-based optimization cannot be easily implemented in this type of software, I proposed a new criterion. It is based on classical optical optimization criteria used in Code V that have been modified in order to take into account deconvolution in a implicit manner. This design method has been first validated on the optimization of a phase mask for depth of field extension of an already existing lens. Results were similar to those given by the image quality-based optimization. Then this method has been used to enhance a very fast f/0.75 lens: by modifying its optical parameters, the lens has been simplified, and the image quality has been homogenized over the field. Eventually I applied this joint design method to solve the important problem of thermal sensitivity of an 8-12 µm infrared system. By using this method I designed from scratch several types of short and long focal length athermalized lenses. The obtained lenses are simpler than conventionally athermalized ones while having similar or even higher imaging performance
APA, Harvard, Vancouver, ISO, and other styles
50

Tharreau, Véronique. "Systèmes biologiques pour l'épuration des métaux dans les effluents industriels." Metz, 1990. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1990/Tharreau.Veronique.SMZ9023.pdf.

Full text
Abstract:
Ce travail concerne l'épuration des effluents hydriques chargés en cadmium et en chrome. Nous nous sommes intéressés aux techniques de fixation sur support réalisées à l'aide de biosorbants (micro-algues) ou d'adsorbants d'origine biologique (chitine, kératine, osséine. . . ). Les performances de ces supports ont été évaluées et comparées lors d'essais réalisés en batch, puis en continu pour les plus efficaces (en vue d'une étude ultérieure de l'applicabilité de tels systèmes a plus grande échelle), avec des solutions synthétiques de cadmium ou de chrome (de 3 à 500 mg/l). Les essais de fixation en continu du cadmium (cdii) ont montré que les capacités de fixation (c. F. En mg métal par g support (poids sec)) pouvaient atteindre 12 à 60 mgcd/g pour les algues chlorella vulgaris, 28 mgcd/g pour l'osséine ayant subi un traitement à la chaux, et 6 mgcd/g pour les kératines moins efficaces. Des réponses similaires entre cations métalliques cd++ et cr+++ avaient été enregistrées lors des premiers essais en batch avec les adsorbants. Des essais réalisés en continu ont montré que l'osséine acide était capable de fixer des anions métalliques tels les chromates ou dichromates (c. F. =5 mgcr(vi)/g). Les mécanismes de fixation des cations ou des anions sur les deux types d'osséine (chaulée ou acide) ont été étudiés en modifiant certains groupements terminaux des acides aminés du support. La nature des liaisons entre métal et osséine serait de type faible (ionique ou électrostatique)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography