To see the other types of publications on this topic, follow the link: Automatic optimisation.

Dissertations / Theses on the topic 'Automatic optimisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Automatic optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Syed, Ahmad Sharifah M. "Automatic signature verification optimisation tools." Thesis, University of Kent, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.405986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rowsell, Philip J. "The automatic optimisation of drilling performance." Thesis, University of Nottingham, 1991. http://eprints.nottingham.ac.uk/11909/.

Full text
Abstract:
The drilling industry, along with many others, is becoming increasingly competitive, demanding greater efforts to improve safety and reduce costs. For this reason, companies are progressively looking towards computerised automation to enhance performance. Unlike most industries however, the drilling industry has been slow to take advantage of the advances in computer and automation technology. Only recently have automatic operations such as tubular handling been placed under computer control. These activities relate to peripheral mechanical handling problems which are relatively easy to solve. The concept of an automatic intelligent drill, capable of making its own or assisted decisions about drilling parameters such as weight on bit or rotational speed, may seem remote and far into the future. Research in drilling automation, at the University of Nottingham, has the ultimate objective of achieving computerized drill control through the the application of an intelligent knowledge induction system. At the University, a laboratory rig has been developed with such a system installed. Decisions for optimal performance are based on either maximum penetration or minimum cost drilling. The system has a self-learning capability, allowing a progressive improvement in performance. The prototype system is currently undergoing trials, using real data collected while the laboratory rig is drilling and artificial data. The results are very encouraging and demonstrate the feasibility and advantages of optimised drill performance. This thesis describes the design and development of this drill optimisation scheme produced by the author. Both the theory behind the optimisation system, and the results of the initial phase of Laboratory testing are included.
APA, Harvard, Vancouver, ISO, and other styles
3

Price, R. C. "Sparse matrix optimisation using automatic differentiation." Thesis, University of Hertfordshire, 1987. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.379908.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Woodland, Daniel. "Optimisation of automatic train protection systems." Thesis, University of Sheffield, 2005. http://etheses.whiterose.ac.uk/14543/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Cooper, Jonathan Paul. "Automatic validation and optimisation of biological models." Thesis, University of Oxford, 2009. http://ora.ox.ac.uk/objects/uuid:24b96d62-b47c-458d-9dff-79b27dbdc9f2.

Full text
Abstract:
Simulating the human heart is a challenging problem, with simulations being very time consuming, to the extent that some can take days to compute even on high performance computing resources. There is considerable interest in computational optimisation techniques, with a view to making whole-heart simulations tractable. Reliability of heart model simulations is also of great concern, particularly considering clinical applications. Simulation software should be easily testable and maintainable, which is often not the case with extensively hand-optimised software. It is thus crucial to automate and verify any optimisations. CellML is an XML language designed for describing biological cell models from a mathematical modeller’s perspective, and is being developed at the University of Auckland. It gives us an abstract format for such models, and from a computer science perspective looks like a domain specific programming language. We are investigating the gains available from exploiting this viewpoint. We describe various static checks for CellML models, notably checking the dimensional consistency of mathematics, and investigate the possibilities of provably correct optimisations. In particular, we demonstrate that partial evaluation is a promising technique for this purpose, and that it combines well with a lookup table technique, commonly used in cardiac modelling, which we have automated. We have developed a formal operational semantics for CellML, which enables us to mathematically prove the partial evaluation of CellML correct, in that optimisation of models will not change the results of simulations. The use of lookup tables involves an approximation, thus introduces some error; we have analysed this using a posteriori techniques and shown how it may be managed. While the techniques could be applied more widely to biological models in general, this work focuses on cardiac models as an application area. We present experimental results demonstrating the effectiveness of our optimisations on a representative sample of cardiac cell models, in a variety of settings.
APA, Harvard, Vancouver, ISO, and other styles
6

Stott, Jonathan. "Automatic Layout of Metro Maps Using Multicriteria Optimisation." Thesis, University of Kent, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.499775.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Luangpaiboon, Pongchanun. "A comparison of algorithms for automatic process optimisation." Thesis, University of Newcastle Upon Tyne, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.324922.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ugail, Hassan, M. I. G. Bloor, and M. J. Wilson. "Implementing automatic design optimisation in an interactive environment." American Institute of Aeronautics and Astronautics, 2000. http://hdl.handle.net/10454/2942.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ugail, Hassan, and M. J. Wilson. "Automatic design and optimisation of thermoformed thin-walled structures." American Institute of Aeronautics and Astronautics, 2004. http://hdl.handle.net/10454/2954.

Full text
Abstract:
Yes
Here the design and functional optimisation of thermoformed thin-walled structures made from plastics is considered. Such objects are created in great numbers especially in the food packaging industry. In fact these objects are produced in such vast numbers each year, that one important task in the design of these objects is the minimisation of the amount of plastic used, subject to functional constraints. In this paper a procedure for achieving this is described, which involves the automatic optimisation of the mold shape taking into account the strength of the final object and its thickness distribution, thus reducing the need to perform inefficient and expensive `trial and error¿ experimentation using physical prototypes. An efficient technique for parameterising geometry is utilised here, enabling to create a wide variety of possible mold shapes on which appropriate analysis can be performed. The results of the analysis are used within an automatic optimisation routine enabling to find a design which satisfies user requirements. Thus, the paper describes a rational means for the automatic optimal design of composite thermoformed thin-walled structures.
APA, Harvard, Vancouver, ISO, and other styles
10

Culioli, Jean-Christophe. "Algorithmes de décomposition/coordination en optimisation stochastique." Phd thesis, École Nationale Supérieure des Mines de Paris, 1987. http://pastel.archives-ouvertes.fr/pastel-00834013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Cooper, Vincent A. "On automatic calibration of conceptual rainfall runoff models using optimisation techniques." Thesis, McGill University, 2002. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=38473.

Full text
Abstract:
Conceptual rainfall runoff (CRR) models are popular among hydrologists owing to their modest input data requirements, their simple structure and therefore their modest computational requirements. The realisation that CRR model calibration is more akin to a global optimisation problem, not a local optimisation one, was a significant development. The subsequent applications of global optimisation methods (GOM) have solved a major difficulty for estimating model parameters. Further improvement in parameter estimation may follow if constraints that help to limit the number of feasible parameter values can be developed. This study has proposed a methodology for formulating constraints related to the CRR model structure and the hydrologic data available for calibration.
For developing this methodology, the research examined the capabilities of three GOMs for calibration, namely, the Shuffled Complex Evolution (SCE) method, a genetic algorithm (GA) and a simulated annealing procedure (SA), and one local optimisation method, the downhill simplex method (DSM). The GOMs all performed better than the DSM. The SCE displayed superior accuracy and robustness for synthetic data applications, being able to find all (five) selected sets of parameter values with almost 100% accuracy. However, the GA performed better than the SCE method with real data and perhaps reflects some weakness in the SCE to find global optimal points under difficult calibration conditions. The SA was inferior to the others with both types of data applications.
The importance of selection of parameter ranges is currently given little attention in the calibration process, but even with the superior search capability of GOMs, inflated search spaces can frustrate their searches and may lead to inferior parameter estimation. Several inequalities relating model parameters with the hydrologic data were developed, which when coupled with the SCE method, significantly improved the GOM performance. This modified SCE method appeared less sensitive to the problem of parameter range specification. A method for formulating these constraints was demonstrated on synthetic data and a procedure for its application to real data was done using data from two tropical watersheds.
APA, Harvard, Vancouver, ISO, and other styles
12

Zhou, Yu. "Automatic synthesis and optimisation of asynchronous data paths using partial acknowledgement." Thesis, University of Newcastle Upon Tyne, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.445589.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Kelly, Marvin G. "The automatic placement of multiple indoor antennas using Particle Swarm Optimisation." Thesis, Loughborough University, 2016. https://dspace.lboro.ac.uk/2134/25434.

Full text
Abstract:
In this thesis, a Particle Swarm Optimization (PSO) method combined with a ray propagation method is presented as a means to optimally locate multiple antennas in an indoor environment. This novel approach uses Particle Swarm Optimisation combined with geometric partitioning. The PSO algorithm uses swarm intelligence to determine the optimal transmitter location within the building layout. It uses the Keenan-Motley indoor propagation model to determine the fitness of a location. If a transmitter placed at that optimum location, transmitting a maximum power is not enough to meet the coverage requirements of the entire indoor space, then the space is geometrically partitioned and the PSO initiated again independently in each partition. The method outputs the number of antennas, their effective isotropic radiated power (EIRP) and physical location required to meet the coverage requirements. An example scenario is presented for a real building at Loughborough University and is compared against a conventional planning technique used widely in practice.
APA, Harvard, Vancouver, ISO, and other styles
14

Ben, Hamouda Mohamed Zied. "Conception et optimisation robuste des réseaux de télécommunications." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00512347.

Full text
Abstract:
Les réseaux de communication devenant de plus en plus présents dans nos activités quotidiennes, l'interruption des services fournis par le réseau, ou même une dégradation significative de leurs qualit és, deviennent de moins en moins tolérables. Une conception robuste des réseaux de communication, anticipant les pannes éventuelles d'équipements ou les variations sur la demande en trafic, devient donc de plus en plus nécessaire. Cette thèse traite de plusieurs problèmes de conception et de planification robustes apparaissant dans le domaine des télécommunications. Nous étudions tout d'abord le problème de la conception et du dimensionnement d'une topologie de communication résilience. Nous proposons un nouveau modèle de conception de réseaux intégrant les coûts et les contraintes des différents équipements (liens, routeurs, cartes). Ce modèle prend également en compte de nombreuses contraintes opérationnelles telles que la présence de noeud potentiel et de capacités modulaires, mais aussi des contraintes sur les délais de communication. Un algorithme exact et deux approximations sont proposés pour résoudre ce problème. Les résultats numériques montrent que des économies substantielles peuvent être effectuées en intégrant les coûts d'équipements dans la phase amont du processus de conception. Avec la croissance exponentielle de l'Internet et l'incroyable développement des applications réseaux, les variations sur les volumes de trafic sont devenus un des problèmes majeurs auxquels sont confrontés les opérateurs. Aujourd'hui, concevoir un réseau sur la base d'une unique matrice de trafic "en heure de pointe" est de moins en moins crédible du fait de la forte volatilité des trafics. Il devient ainsi nécessaire d'intégrer explicitement l'incertitude sur la demande en trafic dans les problèmes d'optimisation du routage. Nous étudions deux problèmes d'optimisation robuste du routage : (1) le problème de conception des VPN dans le cadre du modèle hose d'incertitude sur la de mande et (2) le problème d'optimisation des métriques de routage IGP avec incertitude sur la demande. Nous formulons des modèles mathématiques de chacun de ces problèmes et proposons des heuristiques efficaces basées sur des techniques de recherche locale pour les résoudre. L'efficacité pratique des techniques et méthodes développées dans le cadre de cette thèse est démontrée et validée par une batterie de tests sur des données réalistes. Ce travail a d'autre part donné lieu `a plusieurs développements logiciels dans le logiciel de planification de réseaux NEST de QoS Design.
APA, Harvard, Vancouver, ISO, and other styles
15

Boje, E. P., and B. J. Kotze. "An integrated control system for an Automatic Guided Vehicle (AGV)." Interim : Interdisciplinary Journal, Vol 7, Issue 1: Central University of Technology Free State Bloemfontein, 2008. http://hdl.handle.net/11462/376.

Full text
Abstract:
Published Article
An immense amount of research is currently, being done on the development and use of Automatic Guided Vehicles (AGVs) in industry. An important component of this research often involves navigation and route-optimization of such AGVs. In this paper the design and control of an AGV, using a stationary control system and a GPS-like navigational system, is discussed. Substantial provision has also been made for the display of operational characteristics of the AGV on the stationary control unit.
APA, Harvard, Vancouver, ISO, and other styles
16

Packianather, Michael S. "Design and optimisation of neural network classifiers for automatic visual inspection of wood veneer." Thesis, Cardiff University, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.323160.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Christakopoulos, Faidon. "Sensitivity computation and shape optimisation in aerodynamics using the adjoint methodology and Automatic Differentiation." Thesis, Queen Mary, University of London, 2012. http://qmro.qmul.ac.uk/xmlui/handle/123456789/8379.

Full text
Abstract:
Adjoint based optimisation has until now demonstrated a great promise for optimisation in aerodynamics due to its independence of the number of design variables. This is essential in large industrial applications, where hundreds of parameters might be needed so as to describe the geometry. Although the computational cost of the methodology is smaller than that of stochastic optimisation methods, the implementation and related program maintenance time and effort could be particularly high. The aim of the present is to contribute to the effort of redusing the cost above by examining whether programs using the adjoint methodology for optimisation can be automatically generated and maintained via Automatic Differentiation, while presenting comparable performance to hand derived adjoints. This could lead to accurate adjoint based optimisation codes, which would inherit any change or addition to the relative original Computational Fluid Dynamics code. Such a methodology is presented and all the different steps involved are detailed. It is found that although a considerable initial effort is required for preparation of the source code for differentiation, hand assembly of the sensitivity algorithms and scripting for the automation of the entire process, the target of this research program is achieved and fully automatically generated adjoint codes with comparable performance can be acquired. After applying the methodology to a number of aerodynamic shape optimisation examples, the logic is also extended to higher derivatives, which could also be included in the optimisation process for robust design.
APA, Harvard, Vancouver, ISO, and other styles
18

Ren, Xianqiang. "Support-vector-machine based automatic performance modelling and optimisation for analogue and mixed-signal designs." Thesis, University of Southampton, 2008. https://eprints.soton.ac.uk/64880/.

Full text
Abstract:
The growing popularity of analogue and mixed-signal (AMS) ASIC and SoC designs for communication applications has led to an increasing requirement for high efficiency performance modelling and optimisation methodologies in AMS synthesis systems. Recently, the support vector machine (SVM) method has been introduced into this challenging field. This research has studied the application of SVMs to AMS performance modelling in terms of the computational cost and prediction accuracy. A novel, general performance modelling methodology which could be applied to an arbitrary AMS system has been developed and integrated into an AMS performance optimisation system. The contributions of this research can be summarised as follows: firstly, a new performance modelling methodology based on automatic generation of knowledge databases for AMS performance modelling using SVM techniques has been developed. Two performance model construction methods have been implemented: a linearly graded method and a support vector regression method. They can provide a basis for efficient design space exploration. Both methods construct performance models for AMS designs in a fully automatic way. A simulator, a performance extractor and an SVM trainer have been developed and integrated into a practical demonstrator system. Secondly, a knowledge-based AMS performance optimisation system has been developed for system-level and circuit-level designs. Knowledge data bases created using the proposed methodology are reusable. This has been verified by the application of two optimisation methods, a dedicated genetic optimisation algorithm and the standard pattern search technique. Finally, the proposed performance model construction methodology and the underlying performance optimisation system have been validated using two complex case studies. The first example is a high-level model of a mixed-signal sigma-delta modulator which comprises most of the practical design nonlinearities and imperfections that are known to affect the performance. The proposed method is able to find designs with significantly superior key performance figures compared to those obtained by the standard sigma-delta modulator design procedure. The second example is a radio frequency (RF) range Colpitts filter for silicon implementations. The non-standard structure of this filter with a lossy spiral inductor makes this type of circuit difficult to handle by standard filter synthesis methods. The proposed performance optimisation method has found solutions which satisfy performance requirements in cases where a standard manual filter design procedure failed.
APA, Harvard, Vancouver, ISO, and other styles
19

Masci, Pierre. "Contrôle et optimisation d'écosystèmes en bioréacteurs pour la production de bioénergie." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00850420.

Full text
Abstract:
Des biocarburants alternatifs, utilisant des microsystèmes microbiens, sont actuellement étudiés dans le but de limiter la consommation non raisonnée de ressources énergétiques et le rejet de gaz à effet de serre, qui modifient le climat. Dans cette thèse, nous avons considéré des bioréacteurs à base de microalgues oléagineuses, et des écosystèmes bactériens anaérobies qui décomposent des déchets et produisent du méthane . Ces travaux avaient pour objectif de mieux comprendre ces procédés et d'en améliorer les performances. Nous avons tout d'abord modélisé et étudié des cultures de microalgues en photobioréacteurs, dans lesquels les pigments algaux induisent une forte atténuation lumineuse. Pour les écosystèmes bactériens, nous avons utilisé un modèle précédemment développé. A l'aide de ces modèles et de leurs analyse mathématique rigoureuse, nous avons proposé des stratégies pour optimiser leur productivité. Ensuite, l'étude de la sélection naturelle entre plusieurs espèces de microorganismes dans ces deux écosystèmes a permis de prédire quelles espèces remportent la compétition. Et finalement nous avons montré comment il est possible, dans chaque écosystème, de contrôler la compétition pour diriger la sélection naturelle de façon à avantager des espèces ayant des caractéristiques permettant une performance accrue.
APA, Harvard, Vancouver, ISO, and other styles
20

Olaru, Sorin. "La commande des systèmes dynamiques sous contraintes Interaction optimisation-géométrie-commande." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00641658.

Full text
Abstract:
Dans ce mémoire d'Habilitation à Diriger les Recherches, seront présentées les recherches menées ces cinq dernières années sur des sujets liés à la commande sous contraintes, à la commande basée sur l'optimisation temps-réel et aux méthodes géométriques en Automatique. La première partie du mémoire d'écrit le parcours académique permettant de recadrer les résultats de recherche dans un parcours scientifique avec toutes ses dimensions la formation, l'enseignement, la recherche, le développement et la participation à la vie de la communauté. Dans la deuxième partie, nous retraçons le chemin de la commande optimale à la commande basée sur l'optimisation. Avec ce panorama historique nous montrerons que les recherches dans ce domaine ont toujours été partagées entre les travaux théoriques et les applications à visée industrielle. Ce panorama sera suivi d'une revue de méthodes géométriques utilisées en automatique, qui identifie une direction dans laquelle s'inscrit notre recherche. Nous insisterons sur les contributions dans le domaine avant d'établir un projet de recherche à court, moyen et long terme. La troisième partie contient une synthèse des travaux de recherche publiés récemment sur les sujets mentionnés précédemment afin d'offrir une image des directions explorées et des concepts clés qui ont guidé nos recherches dans les cinq dernières années. L'analyse des polyèdres paramétrés est présentée comme un problème de géométrie avec des implications multiples dans la commande prédictive sous contraintes dans le cas linéaire et hybride. Spécifiquement pour la commande prédictive des systèmes hybrides, des approches alternatives basées sur l'adaptation du modèle de prédiction en vue de l'exploitation des routines d'optimisation évoluées (algorithmes génétiques, etc.) ont été développées. Les outils géométriques sont utilisés aussi dans des problèmes plus éloignés de la commande prédictive comme le cas de la modélisation des systèmes affectés par un retard variable. Ici, les techni-ques géométriques permettent la description des modèles linéaires polytopiques qui peuvent être utilisés par la suite dans une procédure de synthèse de lois de commande robuste (et prédictive accessoirement). Finalement, dans un tout autre domaine, celui de la commande des systèmes multi-capteurs, on montre que les méthodes ensemblistes peuvent apporter des réponses pour les défis de détection et isolation des défauts. Quant à la commande prédictive, elle offre le cadre approprié pour la reconfiguration, l'autre aspect majeur de ce qu'on appelle communément " la conception d'un système de commande tolérant aux défauts ".
APA, Harvard, Vancouver, ISO, and other styles
21

Quemard, Céline. "Analyse et optimisation d'une classe de systèmes dynamiques hybrides à commutations autonomes." Phd thesis, Université d'Angers, 2007. http://tel.archives-ouvertes.fr/tel-00464057.

Full text
Abstract:
Les travaux de recherche de ce mémoire porte sur l'étude d'une classe particulière de systèmes dynamiques hybrides (s.d.h.) à commutations autonomes, ces dernières étant engendrées par un phénomène d'hystérésis. Plus particulièrement, après avoir introduit le système mathématique étudié, une analyse de cette classe de s.d.h. est réalisée avec notamment une étude des cycles limites (équations qui les déterminent, stabilité) et des phénomènes de bifurcations (noeud-selle, doublement de période). L'existence de propriétés caractéristiques des systèmes chaotiques comme la sensibilité aux conditions initiales est également mise en avant de façons graphique et calculatoire (exposant de Lyapunov). Enfin, une partie optimisation paramétrique a aussi été traitée dans le but d'améliorer certaines performances du système. Tous ces résultats théoriques sont appliqués à un système thermique (thermostat à résistance d'anticipation) et à un système électronique (convertisseur statique) à l'aide du calcul forme (Maple), de l'analyse par intervalles (Proj2D) et de simulations numériques (Matlab)
APA, Harvard, Vancouver, ISO, and other styles
22

Diarra, Rokiatou. "Automatic Parallelization for Heterogeneous Embedded Systems." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS485.

Full text
Abstract:
L'utilisation d'architectures hétérogènes, combinant des processeurs multicoeurs avec des accélérateurs tels que les GPU, FPGA et Intel Xeon Phi, a augmenté ces dernières années. Les GPUs peuvent atteindre des performances significatives pour certaines catégories d'applications. Néanmoins, pour atteindre ces performances avec des API de bas niveau comme CUDA et OpenCL, il est nécessaire de réécrire le code séquentiel, de bien connaître l’architecture des GPUs et d’appliquer des optimisations complexes, parfois non portables. D'autre part, les modèles de programmation basés sur des directives (par exemple, OpenACC, OpenMP) offrent une abstraction de haut niveau du matériel sous-jacent, simplifiant ainsi la maintenance du code et améliorant la productivité. Ils permettent aux utilisateurs d’accélérer leurs codes séquentiels sur les GPUs en insérant simplement des directives. Les compilateurs d'OpenACC/OpenMP ont la lourde tâche d'appliquer les optimisations nécessaires à partir des directives fournies par l'utilisateur et de générer des codes exploitant efficacement l'architecture sous-jacente. Bien que les compilateurs d'OpenACC/OpenMP soient matures et puissent appliquer certaines optimisations automatiquement, le code généré peut ne pas atteindre l'accélération prévue, car les compilateurs ne disposent pas d'une vue complète de l'ensemble de l'application. Ainsi, il existe généralement un écart de performance important entre les codes accélérés avec OpenACC/OpenMP et ceux optimisés manuellement avec CUDA/OpenCL. Afin d'aider les programmeurs à accélérer efficacement leurs codes séquentiels sur GPU avec les modèles basés sur des directives et à élargir l'impact d'OpenMP/OpenACC dans le monde universitaire et industrielle, cette thèse aborde plusieurs problématiques de recherche. Nous avons étudié les modèles de programmation OpenACC et OpenMP et proposé une méthodologie efficace de parallélisation d'applications avec les approches de programmation basées sur des directives. Notre expérience de portage d'applications a révélé qu'il était insuffisant d'insérer simplement des directives de déchargement OpenMP/OpenACC pour informer le compilateur qu'une région de code particulière devait être compilée pour être exécutée sur la GPU. Il est essentiel de combiner les directives de déchargement avec celles de parallélisation de boucle. Bien que les compilateurs actuels soient matures et effectuent plusieurs optimisations, l'utilisateur peut leur fournir davantage d'informations par le biais des clauses des directives de parallélisation de boucle afin d'obtenir un code mieux optimisé. Nous avons également révélé le défi consistant à choisir le bon nombre de threads devant exécuter une boucle. Le nombre de threads choisi par défaut par le compilateur peut ne pas produire les meilleures performances. L'utilisateur doit donc essayer manuellement différents nombres de threads pour améliorer les performances. Nous démontrons que les modèles de programmation OpenMP et OpenACC peuvent atteindre de meilleures performances avec un effort de programmation moindre, mais les compilateurs OpenMP/OpenACC atteignent rapidement leur limite lorsque le code de région déchargée a une forte intensité arithmétique, nécessite un nombre très élevé d'accès à la mémoire globale et contient plusieurs boucles imbriquées. Dans de tels cas, des langages de bas niveau doivent être utilisés. Nous discutons également du problème d'alias des pointeurs dans les codes GPU et proposons deux outils d'analyse statiques qui permettent d'insérer automatiquement les qualificateurs de type et le remplacement par scalaire dans le code source
Recent years have seen an increase of heterogeneous architectures combining multi-core CPUs with accelerators such as GPU, FPGA, and Intel Xeon Phi. GPU can achieve significant performance for certain categories of application. Nevertheless, achieving this performance with low-level APIs (e.g. CUDA, OpenCL) requires to rewrite the sequential code, to have a good knowledge of GPU architecture, and to apply complex optimizations that are sometimes not portable. On the other hand, directive-based programming models (e.g. OpenACC, OpenMP) offer a high-level abstraction of the underlying hardware, thus simplifying the code maintenance and improving productivity. They allow users to accelerate their sequential codes on GPU by simply inserting directives. OpenACC/OpenMP compilers have the daunting task of applying the necessary optimizations from the user-provided directives and generating efficient codes that take advantage of the GPU architecture. Although the OpenACC / OpenMP compilers are mature and able to apply some optimizations automatically, the generated code may not achieve the expected speedup as the compilers do not have a full view of the whole application. Thus, there is generally a significant performance gap between the codes accelerated with OpenACC/OpenMP and those hand-optimized with CUDA/OpenCL. To help programmers for speeding up efficiently their legacy sequential codes on GPU with directive-based models and broaden OpenMP/OpenACC impact in both academia and industry, several research issues are discussed in this dissertation. We investigated OpenACC and OpenMP programming models and proposed an effective application parallelization methodology with directive-based programming approaches. Our application porting experience revealed that it is insufficient to simply insert OpenMP/OpenACC offloading directives to inform the compiler that a particular code region must be compiled for GPU execution. It is highly essential to combine offloading directives with loop parallelization constructs. Although current compilers are mature and perform several optimizations, the user may provide them more information through loop parallelization constructs clauses in order to get an optimized code. We have also revealed the challenge of choosing good loop schedules. The default loop schedule chosen by the compiler may not produce the best performance, so the user has to manually try different loop schedules to improve the performance. We demonstrate that OpenMP and OpenACC programming models can achieve best performance with lesser programming effort, but OpenMP/OpenACC compilers quickly reach their limit when the offloaded region code is computed/memory bound and contain several nested loops. In such cases, low-level languages may be used. We also discuss pointers aliasing problem in GPU codes and propose two static analysis tools that perform automatically at source level type qualifier insertion and scalar promotion to solve aliasing issues
APA, Harvard, Vancouver, ISO, and other styles
23

Sookpeng, Supawitoo. "Investigation of CT dosimetry techniques for use in optimisation of Automatic Tube Current Modulation (ATCM) performance." Thesis, University of Glasgow, 2014. http://theses.gla.ac.uk/5252/.

Full text
Abstract:
The PhD project aimed to develop methodologies for optimisation of automatic tube current modulation (ATCM) performance for the four most important computed tomography (CT) scanner manufacturers (Toshiba, GE, Philips and Siemens scanners). Since the human body to which ATCM response is elliptical in shape, the project started with an investigation of differences between dosimetry in cylindrical and elliptical phantoms. The ATCM systems modulate the tube current in both the x-y plane and z-axis, therefore phantoms made from multiple sections of different size ellipses were designed for quality control of the ATCM performances and evaluated by comparing with a conical phantom developed by imaging performance and assessment of CT (ImPACT) evaluation centre, UK. In order to link the project into patient dose optimisation, CT scanners in which patient doses were high were identified and the link with patient size evaluated. Since the large variations in patient dose may be influenced by scan parameters, the phantom developed was used to carry out measurements on CT scanners and investigate some factors and attribute reasons for the high doses. Finally changes in CT scanner protocols were recommended. The results from the elliptical phantom showed that the doses in the centre and anterior were larger than in the cylinder, while doses in the lateral periphery were similar. Differences in ratios of doses between the two phantoms for different CT scanners are linked to the beam profiles produced by the individual bow tie filters. Phantoms made from multi elliptical sections demonstrated similar trends for the Philips and Siemens ATCM systems. However, the abrupt changes in attenuation provoked the ATCMs to increase tube current aggressively with the GE and Toshiba systems. A phantom like a wedding cake with broader sections and smaller differences in attenuation circumvented these effects. The volume weighted CT dose index (CTDIvol) increased significantly with patient size for Toshiba and GE scanners whilst the changes for Siemens and Philips scanners were less marked. However, the use of Philips the D-DOM ATCM option led to a significant increase in patient dose. The reconstruction filter and image thickness are major factors influencing patient dose for the Toshiba CT scanner.
APA, Harvard, Vancouver, ISO, and other styles
24

Boussaa, Mohamed. "Automatic non-functional testing and tuning of configurable generators." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S011/document.

Full text
Abstract:
Les techniques émergentes de l’ingénierie dirigée par les modèles et de la programmation générative ont permis la création de plusieurs générateurs (générateurs de code et compilateurs). Ceux-ci sont souvent utilisés afin de faciliter le développement logiciel et automatiser le processus de génération de code à partir des spécifications abstraites. De plus, les générateurs modernes comme les compilateurs C, sont devenus hautement configurables, offrant de nombreuses options de configuration à l'utilisateur de manière à personnaliser facilement le code généré pour la plateforme matérielle cible. Par conséquent, la qualité logicielle est devenue fortement corrélée aux paramètres de configuration ainsi qu'au générateur lui-même. Dans ce contexte, il est devenu indispensable de vérifier le bon comportement des générateurs. Cette thèse établit trois contributions principales : Contribution I: détection automatique des inconsistances dans les familles de générateurs de code : Dans cette contribution, nous abordons le problème de l'oracle dans le domaine du test non-fonctionnel des générateurs de code. La disponibilité de multiples générateurs de code avec des fonctionnalités comparables (c.-à-d. familles de générateurs de code) nous permet d'appliquer l'idée du test métamorphique en définissant des oracles de test de haut-niveau (c.-à-d. relation métamorphique) pour détecter des inconsistances. Une inconsistance est détectée lorsque le code généré présente un comportement inattendu par rapport à toutes les implémentations équivalentes de la même famille. Nous évaluons notre approche en analysant la performance de Haxe, un langage de programmation de haut niveau impliquant un ensemble de générateurs de code multi-plateformes. Les résultats expérimentaux montrent que notre approche est capable de détecter plusieurs inconsistances qui révèlent des problèmes réels dans cette famille de générateurs de code. Contribution II: une approche pour l'auto-configuration des compilateurs. Le grand nombre d'options de compilation des compilateurs nécessite une méthode efficace pour explorer l'espace d’optimisation. Ainsi, nous appliquons, dans cette contribution, une méta-heuristique appelée Novelty Search pour l'exploration de cet espace de recherche. Cette approche aide les utilisateurs à paramétrer automatiquement les compilateurs pour une architecture matérielle cible et pour une métrique non-fonctionnelle spécifique tel que la performance et l'utilisation des ressources. Nous évaluons l'efficacité de notre approche en vérifiant les optimisations fournies par le compilateur GCC. Nos résultats expérimentaux montrent que notre approche permet d'auto-configurer les compilateurs en fonction des besoins de l'utilisateur et de construire des optimisations qui surpassent les niveaux d'optimisation standard. Nous démontrons également que notre approche peut être utilisée pour construire automatiquement des niveaux d'optimisation qui représentent des compromis optimaux entre plusieurs propriétés non-fonctionnelles telles que le temps d'exécution et la consommation des ressources. Contribution III: Un environnement d'exécution léger pour le test et la surveillance de la consommation des ressources des logiciels. Enfin, nous proposons une infrastructure basée sur les micro-services pour assurer le déploiement et la surveillance de la consommation des ressources des différentes variantes du code généré. Cette contribution traite le problème de l'hétérogénéité des plateformes logicielles et matérielles. Nous décrivons une approche qui automatise le processus de génération, compilation, et exécution du code dans le but de faciliter le test et l'auto-configuration des générateurs. Cet environnement isolé repose sur des conteneurs système, comme plateformes d'exécution, pour une surveillance et analyse fine des propriétés liées à l'utilisation des ressources (CPU et mémoire)
Generative software development has paved the way for the creation of multiple generators (code generators and compilers) that serve as a basis for automatically producing code to a broad range of software and hardware platforms. With full automatic code generation, users are able to rapidly synthesize software artifacts for various software platforms. In addition, they can easily customize the generated code for the target hardware platform since modern generators (i.e., C compilers) become highly configurable, offering numerous configuration options that the user can apply. Consequently, the quality of generated software becomes highly correlated to the configuration settings as well as to the generator itself. In this context, it is crucial to verify the correct behavior of generators. Numerous approaches have been proposed to verify the functional outcome of generated code but few of them evaluate the non-functional properties of automatically generated code, namely the performance and resource usage properties. This thesis addresses three problems : (1) Non-functional testing of generators: We benefit from the existence of multiple code generators with comparable functionality (i.e., code generator families) to automatically test the generated code. We leverage the metamorphic testing approach to detect non-functional inconsistencies in code generator families by defining metamorphic relations as test oracles. We define the metamorphic relation as a comparison between the variations of performance and resource usage of code, generated from the same code generator family. We evaluate our approach by analyzing the performance of HAXE, a popular code generator family. Experimental results show that our approach is able to automatically detect several inconsistencies that reveal real issues in this family of code generators. (2) Generators auto-tuning: We exploit the recent advances in search-based software engineering in order to provide an effective approach to tune generators (i.e., through optimizations) according to user's non-functional requirements (i.e., performance and resource usage). We also demonstrate that our approach can be used to automatically construct optimization levels that represent optimal trade-offs between multiple non-functional properties such as execution time and resource usage requirements. We evaluate our approach by verifying the optimizations performed by the GCC compiler. Our experimental results show that our approach is able to auto-tune compilers and construct optimizations that yield to better performance results than standard optimization levels. (3) Handling the diversity of software and hardware platforms in software testing: Running tests and evaluating the resource usage in heterogeneous environments is tedious. To handle this problem, we benefit from the recent advances in lightweight system virtualization, in particular container-based virtualization, in order to offer effective support for automatically deploying, executing, and monitoring code in heterogeneous environment, and collect non-functional metrics (e.g., memory and CPU consumptions). This testing infrastructure serves as a basis for evaluating the experiments conducted in the two first contributions
APA, Harvard, Vancouver, ISO, and other styles
25

Lassami, Bilal. "Optimisation non différentiale pour la prise en compte de cahier des charges générique en automatique." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00352962.

Full text
Abstract:
Cette thèse porte sur la recherche d'une réponse au problème de prise en compte d'un cahier des charges génériques par une approche de synthèse par optimisation non linéaire. Étant donnés un processus et un ensemble de spécifications (en général de natures très diverses) sur le comportement souhaité pour le système bouclé, peut-on développer une formulation générique qui permet via des algorithmes d'optimisation adaptées, de répondre aux spécifications du cahier des charges ? Dans notre problématique, nous nous intéresseront à l'efficacité de la mise en œuvre :
• Efficacité des méthodes tant dans le choix de la formulation ; type de formulation des critères et des contraintes, que dans le choix des algorithmes.
• Adaptation ou création d'algorithmes spécifiques.
• Et surtout, prise en compte des régularités des problèmes pour obtenir des méthodes efficaces et faciles à mettre en œuvre.
Ce travail de recherche se propose d'étudier ces problématiques dans le prolongement des travaux portant sur les formulations convexes en utilisant différentes méthodes de l'optimisation non linéaire avec prise en compte de l'information a priori : correcteur initial intelligent, utilisation de changement de paramètres pour le conditionnement (tenant compte des comportements attendus pour la solution), hiérarchisation du problème global en sous problèmes présentant des qualités de résolutions supérieures
APA, Harvard, Vancouver, ISO, and other styles
26

Ye, Bo. "Service-oriented spectrum management for cognitive wireless networks using automatic optimisation algorithms and trust-based QoS model." Thesis, London South Bank University, 2013. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.631744.

Full text
Abstract:
Due to the regulatory demand for the conversion of TV stations from analogue to digital transmission in most developed countries, there will be opportunities to utilise spatially unused licensed TV bands, known as TV White Space (TVWS). TVWS is free and available worldwide, has excellent radio signal propagation, and offers a huge amount of bandwidth; therefore, it has attracted a great amount of academic and industrial interest. With the development of TVWS systems, many new TVWS technologies, devices, applications and algorithms will emerge, and TVWS systems have to support the smooth introduction of these new initiatives. The quick development and deployment of new algorithms and applications need to be allowed, and modular, extensible and easier-to-implement systems need to be designed. It is believed that systems based on Service-Oriented Architecture (SOA) can fully satisfy the requirements of modularity and flexibility.
APA, Harvard, Vancouver, ISO, and other styles
27

Prochazka, Hynek. "Synthèse de régulateurs numériques robustes multivariables par optimisation convexe." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00169982.

Full text
Abstract:
La thèse concerne essentiellement les méthodes de synthèse de régulateurs numériques robustes, monovariables ou multivariables, pour la commande des procédés temps-continu. Pour la synthèse, il est supposé que l'on dispose d'un modèle linéaire échantillonné (discrétisé) du procédé continue à commander. La robustesse de régulateur est traitée par l'analyse fréquentielle des sensibilités (fonctions/matrices de transfert de la boucle fermée). Comme dans le cas de la commande H∞, les valeurs singulières des réponses fréquentielles sont examinées pour ces analyses.

Le mémoire est divisé en cinq parties. La première partie concerne les systèmes monovariables et le reste est concentré sur les problèmes de synthèse dans le domaine multivariable. Les cinq parties traitent les problématiques suivantes:

• La première partie (Chapitre 2) touche la synthèse de régulateurs robustes monovariables par le placement de pôles, le calibrage de sensibilités et l'optimisation convexe [LK98, LL99]. Elle présente une nouvelle approche de la synthèse par placement de pôles en utilisant les filtres bande-étroite du 2$^e$ ordre et un logiciel associé développé dans le cadre de ce travail. Le logiciel reflète les améliorations apportées qui ont radicalement simplifiées la procédure de synthèse. La section qui concerne l'optimisation convexe rappelle les principes est introduit la notation utilisée ultérieurement pour la théorie multivariable.
• La deuxième partie (Chapitre 3 et 4) évoque la théorie fondamentale de la commande multivariable et développe l'idée de la synthèse de régulateurs robustes multivariables par placement de pôles et calibrage des sensibilités. Le régulateur a la forme d'observateur avec le retour des états estimés et il est utilisé dans la suite comme le régulateur central pour la synthèse de régulateurs par optimisation convexe.
• La troisième partie (Chapitre 5) est la partie essentielle et elle développe la méthode de synthèse de régulateurs robustes multivariables par calibrage de sensibilités et optimisation convexe. La méthode est basée sur la même principe que celui utilisé dans le domaine monovariable [Lan98, LL99] et elle est réalisé comme une boite à outils interactive pour Matlab. Le placement de pôles multivariable est aussi intégré dans cette application. Le logiciel développé fait partie de la thèse et il est brièvement décrit dans ce chapitre.
• La quatrième partie (Chapitre 6) traite la synthèse par optimisation convexe du pré-compensateur multivariable pour la poursuite. Le pré-com\-pen\-sa\-teur nous permet de séparer les spécifications sur la robustesse (rejet de perturbations et traitement des incertitudes) et les spécifications sur la poursuite (temps de montée, dépassement maximal).
• La cinquième partie (Chapitre 7) concerne la technique de réduction des régulateurs multivariables par identification en boucle fermée. La méthode développée fait suite à un approche similaire développé pour les régulateurs monovariables dans [LKC01].
APA, Harvard, Vancouver, ISO, and other styles
28

Ferveur, Olivier. "Optimisation des architectures IP/MPLS de transport mutualisé." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00418026.

Full text
Abstract:
La technologie IP autrefois utilisée uniquement dans le cadre d'Internet est de nos jours le support de nombreuses autres applications dé-corrélées telle que la téléphonie ou encore la télévision.
Cette multi-utilisation du standard a entraîné une volonté de mutualisation au sein du coeur de réseau. Aujourd'hui, les fonctionnalités apportées par MPLS permettent une virtualisalisation des infrastructures de réseau IP sur un unique coeur , entraînant une complexification de la gestion de la ressource. Dans cette thèse, nous étudierons les possibilités actuelles de gestion de ce réseau mutualisé et nous proposerons l'adjonction d'un mécanisme de gestion appelé TDCN. Nous démontrerons les nombreuses possibilités offertes par ce nouveau système pour ainsi optimiser l'utilisation du réseau.
APA, Harvard, Vancouver, ISO, and other styles
29

Pierre, Jarrault. "Optimisation des capacités de franchissement des robots mobiles hybrides "roues-pattes"." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00867306.

Full text
Abstract:
On considère qu'un robot est en mesure de franchir un obstacle s'il est capable, pour chaque configuration géométrique des contacts rencontrée durant le franchissement, d'équilibrer les actions extérieures qu'il subit tout en préservant l'adhérence des contacts. Notre approche consiste à optimiser la répartition des efforts de contact afin de maximiser un critère qualifiant la performance du franchissement. Pour cela, nous mettons à profit deux caractéristiques des robots poly-articulés. D'une part, la redondance d'actionnement permet l'application de forces internes modifiant la répartition des efforts entre les différents points de contact. D'autre part, la redondance cinématique permet de changer la position du point d'application des forces de gravité en déplaçant le centre de masse relativement à la position des contacts, modifiant ainsi l'espace des solutions au problème de distribution des forces. Le critère utilisé qualifie la robustesse du franchissement vis-à-vis des incertitudes de la commande en efforts. Elle est choisie à partir d'une analyse comparative des différents critères utilisés dans le domaine de la préhension dextre. L'algorithme de commande que nous développons permet le contrôle simultané des mouvements du robot et des efforts aux contact. Il est d'abord validé par une série de simulations dynamiques puis vérifié sur le prototype de robot hybride HyLoS 2. Ce robot à 4 "roues-pattes" possède 16 ddl et est en mesure de franchir un obstacle représenté par une pente de 60\char6 ayant une hauteur de 19 cm alors que le rayon de ses roues est de 7 cm.
APA, Harvard, Vancouver, ISO, and other styles
30

Tugui, Catalin Adrian. "Design Methodology for High-performance Circuits Based on Automatic Optimization Methods." Thesis, Supélec, 2013. http://www.theses.fr/2013SUPL0002/document.

Full text
Abstract:
Ce travail de thèse porte sur le développement d’une méthodologie efficace pour la conception analogique, des algorithmes et des outils correspondants qui peuvent être utilisés dans la conception dynamique de fonctions linéaires à temps continu. L’objectif principal est d’assurer que les performances pour un système complet peuvent être rapidement investiguées, mais avec une précision comparable aux évaluations au niveau transistor.Une première direction de recherche a impliqué le développement de la méthodologie de conception basée sur le processus d'optimisation automatique de cellules au niveau transistor et la synthèse de macro-modèles analogiques de haut niveau dans certains environnements comme Mathworks - Simulink, VHDL-AMS ou Verilog-A. Le processus d'extraction des macro-modèles se base sur un ensemble complet d'analyses (DC, AC, transitoire, paramétrique, Balance Harmonique) qui sont effectuées sur les schémas analogiques conçues à partir d’une technologie spécifique. Ensuite, l'extraction et le calcul d'une multitude de facteurs de mérite assure que les modèles comprennent les caractéristiques de bas niveau et peuvent être directement régénéré au cours de l'optimisation.L'algorithme d'optimisation utilise une méthode bayésienne, où l'espace d’évaluation est créé à partir d'un modèle de substitution (krigeage dans ce cas), et la sélection est effectuée en utilisant le critère d’amélioration (Expected Improvement - EI) sujet à des contraintes. Un outil de conception a été développé (SIMECT), qui a été intégré comme une boîte à outils Matlab, employant les algorithmes d’extraction des macro-modèles et d'optimisation automatique
The aim of this thesis is to establish an efficient analog design methodology, the algorithms and the corresponding design tools which can be employed in the dynamic conception of linear continuous-time (CT) functions. The purpose is to assure that the performance figures for a complete system can be rapidly investigated, but with comparable accuracy to the transistor-level evaluations. A first research direction implied the development of the novel design methodology based on the automatic optimization process of transistor-level cells using a modified Bayesian Kriging approach and the synthesis of robust high-level analog behavioral models in environments like Mathworks – Simulink, VHDL-AMS or Verilog-A.The macro-model extraction process involves a complete set of analyses (DC, AC, transient, parametric, Harmonic Balance) which are performed on the analog schematics implemented on a specific technology process. Then, the extraction and calculus of a multitude of figures of merit assures that the models include the low-level characteristics and can be directly regenerated during the optimization process.The optimization algorithm uses a Bayesian method, where the evaluation space is created by the means of a Kriging surrogate model, and the selection is effectuated by using the expected improvement (EI) criterion subject to constraints.A conception tool was developed (SIMECT), which was integrated as a Matlab toolbox, including all the macro-models extraction and automatic optimization techniques
APA, Harvard, Vancouver, ISO, and other styles
31

Colin, Guillaume. "Optimisation du contrôle de la chaîne de traction des véhicules automobiles." Habilitation à diriger des recherches, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00917564.

Full text
Abstract:
L'automobile est pour l'automaticien une source presque inépuisable de problèmes complexes à résoudre. En effet, la chaîne de traction est un système complexe, multivariable, non linéaire, rapide, avec saturations d'actionneurs. En outre, de nombreuses grandeurs physiques importantes ne sont pas mesurées et des observateurs/estimateurs doivent être mis en place. Enfin, le temps de calcul est limité, et, les objectifs du contrôle (consommation, pollution, performance) sont souvent concurrents, nécessitant un compromis. Ce mémoire synthétise mes dix années de recherche sur l'optimisation du contrôle de la chaîne de traction des véhicules automobiles selon trois thèmes : stratégie globale optimale, commande dynamique robuste ou prédictive et observateurs. Le dénominateur commun à l'ensemble des travaux est la prise en compte des non linéarités et spécificités du procédé par la recherche de modèles de connaissance simplifiés permettant des commandes et observateurs implantables en temps réel. Les contributions portent sur : la réduction de la complexité des stratégies optimales par des approches génériques à sous optimalité minimale et par l'utilisation de prédictions ; une méthodologie quasi-systématique de conception et de réalisation d'une loi de commande robuste ou prédictive à partir du cahier des charges pour des systèmes non-linéaires multivariables carrés ou non ; une estimation d'états non mesurés par des observateurs permettant un réglage de haut niveau entre confiance dans la mesure et fiabilité du modèle ; une validation expérimentale dans le secteur automobile des méthodes proposées, et ce dans le but de minimiser la consommation de carburant, les émissions polluantes et les gaz à effet de serre. Mon projet de recherche, qui suit la logique entreprise jusqu'à présent en alliant automatique et énergétique, se concentre sur la commande prédictive et robuste, sur les stratégies globales multi-critères et multi-variables, et sur des observateurs génériques avec des applications dans le domaine de l'automobile et de l'énergie.
APA, Harvard, Vancouver, ISO, and other styles
32

Manilov, Stanislav Zapryanov. "Analysis and transformation of legacy code." Thesis, University of Edinburgh, 2018. http://hdl.handle.net/1842/29612.

Full text
Abstract:
Hardware evolves faster than software. While a hardware system might need replacement every one to five years, the average lifespan of a software system is a decade, with some instances living up to several decades. Inevitably, code outlives the platform it was developed for and may become legacy: development of the software stops, but maintenance has to continue to keep up with the evolving ecosystem. No new features are added, but the software is still used to fulfil its original purpose. Even in the cases where it is still functional (which discourages its replacement), legacy code is inefficient, costly to maintain, and a risk to security. This thesis proposes methods to leverage the expertise put in the development of legacy code and to extend its useful lifespan, rather than to throw it away. A novel methodology is proposed, for automatically exploiting platform specific optimisations when retargeting a program to another platform. The key idea is to leverage the optimisation information embedded in vector processing intrinsic functions. The performance of the resulting code is shown to be close to the performance of manually retargeted programs, however with the human labour removed. Building on top of that, the question of discovering optimisation information when there are no hints in the form of intrinsics or annotations is investigated. This thesis postulates that such information can potentially be extracted from profiling the data flow during executions of the program. A context-aware data dependence profiling system is described, detailing previously overlooked aspects in related research. The system is shown to be essential in surpassing the information that can be inferred statically, in particular about loop iterators. Loop iterators are the controlling part of a loop. This thesis describes and evaluates a system for extracting the loop iterators in a program. It is found to significantly outperform previously known techniques and further increases the amount of information about the structure of a program that is available to a compiler. Combining this system with data dependence profiling improves its results even more. Loop iterator recognition enables other code modernising techniques, like source code rejuvenation and commutativity analysis. The former increases the use of idiomatic code and as a result increases the maintainability of the program. The latter can potentially drive parallelisation and thus dramatically improve runtime performance.
APA, Harvard, Vancouver, ISO, and other styles
33

Roynette, Eliott. "Optimisation de la conception du design du harnais de commande des véhicules spatiaux." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0011/document.

Full text
Abstract:
Il y a soixante ans, le 4 octobre 1957, Spoutnik, le premier satellite artificiel conçu par l’homme, est envoyé dans l’espace. Sa seule fonction est d’émettre un bip radio à des fréquences de 20 et 40 MHz pour démontrer la puissance spatiale de l’URSS. Depuis cette époque les satellites se sont multipliés et leurs missions se sont diversifiées. Aujourd’hui, les missions des satellites sont si variées que certains quittent l’orbite terrestre. On parle dans ce cas de sondes, même si, dans le reste de cette thèse, ils seront inclus dans le terme "satellite". La mission des satellites la plus connue du grand public est la découverte de l’univers et l’exploration interplanétaire avec de célèbres satellites comme le télescope spatial international Hubble ou des sondes comme Rosetta, Voyager 1 et 2, ... Cependant de nos jours, même si l’exploration spatiale reste un enjeu majeur de l’humanité, la plupart des satellites ont des missions plus modestes qui ont pourtant un impact important sur la vie économique et politique. Les satellites en question ont aujourd’hui deux buts : la défense et le commercial. Dans les deux cas on peut diviser les satellites en deux groupes distincts : les satellites d’observation et les satellites de télécommunication. Pour fonctionner tous ces satellites utilisent un harnais électrique. Le harnais électrique regroupe tous les câbles présents dans le satellite et qui ne transportent pas de données client. Dans le cadre de cette thèse nous nous intéressons à l’optimisation de la conception du harnais électrique des satellites
Sixty years ago, on October 4, 1957, Sputnik, the first man-made artificial satellite, was sent into space. Its only function is to emit a radio beep at frequencies of 20 and 40 MHz to demonstrate the space power of the USSR. Since then, satellites have been multiple and their missions have diversified. Today, the missions of the satellites are so varied that some leave Earth's orbit. We speak in the case of probes, even if, in the rest of this thesis, they will be included in the term "satellite". The best-known satellite mission of the general public is the discovery of the universe and interplanetary exploration with satellite satellites such as the Hubble International Space Telescope or probes such as Rosetta, Voyager 1 and 2, ... nevertheless nowadays Although space exploration remains a major issue for humanity, most satellites have smaller missions that have a significant impact on economic and political life. The satellites in question today have two goals: defense and commercial. In both cases the satellites can be divided into two distinct groups: observation satellites and telecommunication satellites. To operate all these satellites, use an electrical harness. The electrical harness includes all the cables present in the satellite and which does not carry any customer data. As part of this we are interested in optimizing the design of the electrical harness of satellites
APA, Harvard, Vancouver, ISO, and other styles
34

Guichaoua, Philippe. "Etude théorique, optimisation et simulation numérique d'un procédé de régulation thermique." Saint-Etienne, 1986. http://www.theses.fr/1986STET4006.

Full text
Abstract:
Etude du dispositif de régulation sur une portion de frontière d'une région ouverte oméga du plan : ce dispositif comprend un régulateur PID dont le signal de commande est une mesure de différence de température. Possibilité d'un réglage optimal du régulateur pour une perturbation connue de la température initiale. Simulation numérique bidimensionnelle du fonctionnement
APA, Harvard, Vancouver, ISO, and other styles
35

Al-Busaidi, Adil G. "Automatic generation control of the Petroleum Development Oman (PDO) and the Oman Electricity Transmission Company (OETC) interconnected power systems." Thesis, Teesside University, 2012. http://hdl.handle.net/10149/263268.

Full text
Abstract:
Petroleum Development Oman (PDO) and Oman Electricity Transmission Company (OETC) are running the main 132kV power transmission grids in the Sultanate of Oman. In the year 2001, PDO and OETC grids were interconnected with a 132kV Over head transmission line linking Nahada 132kV substation at PDO's side to Nizwa 132kV sub-station at OETC's side. Since then the power exchange between PDO and OETC is driven by the natural impedances of the system and the frequency and power exchange is controlled by manually re-dispatching the generators. In light of the daily load profile and the forecasted Gulf Cooperation Council (GCC) states electrical interconnection, it is a great challenge for PDO and OETC grids operators to maintain the existing operation philosophy. The objective of this research is to investigate Automatic Generation Control (AGC) technology as a candidate to control the grid frequency and the power exchange between PDO and OETC grid. For this purpose, a dynamic power system model has been developed to represent PDO-OETC interconnected power system. The model has been validated using recorded data from the field which has warranted the requirement of refining the model. Novel approaches have been followed during the course of the model refining process which have reduced the modelling error to an acceptable limit. The refined model has then been used to assess the performance of different AGC control topologies. The recommended control topologies have been further improved using sophisticated control techniques like Linear Quadratic Regulator (LQR) and Fuzzy Logic (FL). Hybrid Fuzzy Logic Proportional Integral Derivative (FLPID) AGC controller has produced outstanding results. The FLPID AGC controller parameters have then been optimised using Multidimensional Unconstrained Nonlinear Minimization function (fminsearch) and Particle Swarm Optimisation (PSO) method. The PSO has been proved to be much superior to fminsearch function. The robustness of the LQR, the fminsearch optimized FLPID and the PSO FLPID optimized AGC controllers has been assessed. The LQR robustness found to be slightly better than the FLPID technique. However the FLPID supercedes the LQR due to the limited number of field feedback signals in comparison to the LQR. Finally, a qualitative assessment of the benefits of the ongoing GCC interconnection project on PDO and OETC has been done through modelling approach. The results proved that the GCC interconnection will bring considerable benefits to PDO and OETC but the interconnection capacity between PDO and OETC needs to be enhanced. However, the application of AGC on PDO and OETC will alleviate the PDO-OETC interconnection capacity enhancement imposed by the GCC interconnection.
APA, Harvard, Vancouver, ISO, and other styles
36

Wade, A. A. "Optimising BFWA networks." Thesis, Cardiff University, 2005. http://orca.cf.ac.uk/55997/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Briot, Sébastien. "Analyse et Optimisation d'une Nouvelle Famille de Manipulateurs Parallèles aux Mouvements Découplés." Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00327414.

Full text
Abstract:
Il est bien connu que, parmi les nombreux avantages des manipulateurs parallèles par rapport aux robots sériels, on peut citer des vitesses et accélérations plus élevées, et une plus grande capacité de charge. Cependant, il existe des inconvénients, comme un volume de travail restreint, de forts couplages cinématiques et des singularités plus contraignantes. Afin d'améliorer leurs performances, des travaux ont été menés concernant le découplage des mouvements des robots parallèles. Le projet de thèse porte sur la conception, l'optimisation et l'amélioration d'une nouvelle famille de manipulateurs parallèles de 3 à 6 degrés de libertés partiellement découplés appelés PAMINSA (PArallel Manipulator of the I.N.S.A.). La deuxième partie de ce manuscrit présente la particularité de ces architectures qui est le découplage entre les mouvements de la plateforme dans le plan horizontal et les translations suivant l'axe vertical. Dans une troisième partie, nous faisons l'analyse des singularités de ces manipulateurs. Cette analyse est nécessaire pour choisir le manipulateur qui a le plus grand espace de travail sans singularité. Dans les parties 4 et 5, nous proposons des méthodes permettant d'augmenter la taille de leur espace de travail sans singularité. La première solution est basée sur l'utilisation de mécanismes à structure variable, c'est-à-dire des mécanismes dont les paramètres structurels peuvent être changés. Cette solution permet d'augmenter l'espace de travail sans singularité jusqu'à 100% de l'espace de travail total. La deuxième solution porte sur une optimisation des paramètres dynamiques des manipulateurs qui permet de traverser les singularités lors de déplacements de la plate-forme. Enfin, dans une sixième partie, une nouvelle méthode performante et rapide permettant de calculer la précision des manipulateurs PAMINSA ainsi que des solutions pour améliorer leurs caractéristiques fonctionnelles sont
proposées.
APA, Harvard, Vancouver, ISO, and other styles
38

Gallegos, Garrido Gabriela. "Développement d'un capteur composite Vision/Laser à couplage serré pour le SLAM d'intérieur." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2011. http://tel.archives-ouvertes.fr/tel-00604647.

Full text
Abstract:
Depuis trois décennies, la navigation autonome en environnement inconnu est une des thématiques principales de recherche de la communauté robotique mobile. En l'absence de connaissance sur l'environnement, il est nécessaire de réaliser simultanément les tâches de localisation et de cartographie qui sont extrêmement interdépendantes. Ce problème est connu sous le nom de SLAM (Simultaneous Localization And Mapping). Pour obtenir des informations précises sur leur environnement, les robots mobiles sont équipés d'un ensemble de capteurs appelé système de perception qui leur permet d'effectuer une localisation précise et une reconstruction fiable et cohérente de leur environnement. Nous pensons qu'un système de perception composé de l'odométrie du robot, d'une camera omnidirectionnelle et d'un télémètre laser 2D est suffisant pour résoudre de manière robuste les problèmes de SLAM. Dans ce contexte, nous proposons une approche appearance-based pour résoudre les problèmes de SLAM et effectuer une reconstruction 3D fiable de l'environnement. Cette approche repose sur un couplage serré entre les capteurs laser et omnidirectionnel permettant d'exploiter au mieux les complémentarités des deux types de capteurs. Une représentation originale et générique robot-centrée est proposée. Une vue augmentée sphérique est construite en projetant dans l'image omnidirectionelle les mesures de profondeur du télémètre laser et une estimation de la position du sol. Notre méthode de localisation de type appearance-based minimise une fonction de coût non-linéaire directement construite à partir de la vue sphérique augmenté décrite précédemment. Cependant comme dans toutes les méthodes récursives d'optimisation, des problèmes de convergence peuvent survenir quand l'initialisation est loin de la solution. Ce problème est aussi présent dans notre méthode où une initialisation suffisamment proche de la solution est nécessaire pour s'assurer une convergence rapide et pour réduire les couts de calcul. Pour cela, on utilise un algorithme de PSM amélioré pour construire une prédection du déplacement du robot.
APA, Harvard, Vancouver, ISO, and other styles
39

Delprat, Sébastien. "Evaluation de stratégies de commande pour véhicules hybride paralleles." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2002. http://tel.archives-ouvertes.fr/tel-00007966.

Full text
Abstract:
électriques associés à un moteur thermique. La première partie décrit les grandes familles d'architectures et le prototype réalisé au LAMIH au cours de travaux précédents. La deuxième partie est consacrée à l'étude d'algorithmes, appelés stratégies de commande, qui choisissent à chaque instant la répartition de puissance entre les deux chaînes de traction. Les approches envisagées reposent soit sur l'utilisation du formalise flou et mettent en oeuvre des règles de bon sens soit sur l'analyse plus fine des échanges énergétiques au sein du groupe motopropulseur. La répartition de puissance entre les différentes motorisations est ensuite écrite sous la forme d'un problème d'optimisation globale sous contraintes. Plusieurs algorithmes basés sur la théorie de la commande optimale sont alors proposés. L'objectif est de rechercher, en simulation, la séquence de commandes qui minimise de la consommation de carburant. Dans la dernière partie, les résultats des algorithmes d'optimisation globale sont utilisés, dans un premier temps pour proposer deux nouvelles stratégies de commande temps réel. Ensuite, une étude basée sur des critères permettant de caractériser les cycles de vitesses et les performances des stratégies de commande a notamment permis de valider les stratégies proposées. Enfin, l'utilisation des algorithmes d'optimisation globale comme outil d'aide au dimensionnement et aux choix d'architecture est illustré dans la dernière partie.
APA, Harvard, Vancouver, ISO, and other styles
40

Mazyad, Ahmad. "Contribution to automatic text classification : metrics and evolutionary algorithms." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0487/document.

Full text
Abstract:
Cette thèse porte sur le traitement du langage naturel et l'exploration de texte, à l'intersection de l'apprentissage automatique et de la statistique. Nous nous intéressons plus particulièrement aux schémas de pondération des termes (SPT) dans le contexte de l'apprentissage supervisé et en particulier à la classification de texte. Dans la classification de texte, la tâche de classification multi-étiquettes a suscité beaucoup d'intérêt ces dernières années. La classification multi-étiquettes à partir de données textuelles peut être trouvée dans de nombreuses applications modernes telles que la classification de nouvelles où la tâche est de trouver les catégories auxquelles appartient un article de presse en fonction de son contenu textuel (par exemple, politique, Moyen-Orient, pétrole), la classification du genre musical (par exemple, jazz, pop, oldies, pop traditionnelle) en se basant sur les commentaires des clients, la classification des films (par exemple, action, crime, drame), la classification des produits (par exemple, électronique, ordinateur, accessoires). La plupart des algorithmes d'apprentissage ne conviennent qu'aux problèmes de classification binaire. Par conséquent, les tâches de classification multi-étiquettes sont généralement transformées en plusieurs tâches binaires à label unique. Cependant, cette transformation introduit plusieurs problèmes. Premièrement, les distributions des termes ne sont considérés qu'en matière de la catégorie positive et de la catégorie négative (c'est-à-dire que les informations sur les corrélations entre les termes et les catégories sont perdues). Deuxièmement, il n'envisage aucune dépendance vis-à-vis des étiquettes (c'est-à-dire que les informations sur les corrélations existantes entre les classes sont perdues). Enfin, puisque toutes les catégories sauf une sont regroupées dans une seule catégories (la catégorie négative), les tâches nouvellement créées sont déséquilibrées. Ces informations sont couramment utilisées par les SPT supervisés pour améliorer l'efficacité du système de classification. Ainsi, après avoir présenté le processus de classification de texte multi-étiquettes, et plus particulièrement le SPT, nous effectuons une comparaison empirique de ces méthodes appliquées à la tâche de classification de texte multi-étiquette. Nous constatons que la supériorité des méthodes supervisées sur les méthodes non supervisées n'est toujours pas claire. Nous montrons ensuite que ces méthodes ne sont pas totalement adaptées au problème de la classification multi-étiquettes et qu'elles ignorent beaucoup d'informations statistiques qui pourraient être utilisées pour améliorer les résultats de la classification. Nous proposons donc un nouvel SPT basé sur le gain d'information. Cette nouvelle méthode prend en compte la distribution des termes, non seulement en ce qui concerne la catégorie positive et la catégorie négative, mais également en rapport avec toutes les autres catégories. Enfin, dans le but de trouver des SPT spécialisés qui résolvent également le problème des tâches déséquilibrées, nous avons étudié les avantages de l'utilisation de la programmation génétique pour générer des SPT pour la tâche de classification de texte. Contrairement aux études précédentes, nous générons des formules en combinant des informations statistiques à un niveau microscopique (par exemple, le nombre de documents contenant un terme spécifique) au lieu d'utiliser des SPT complets. De plus, nous utilisons des informations catégoriques telles que (par exemple, le nombre de catégories dans lesquelles un terme apparaît). Des expériences sont effectuées pour mesurer l'impact de ces méthodes sur les performances du modèle. Nous montrons à travers ces expériences que les résultats sont positifs
This thesis deals with natural language processing and text mining, at the intersection of machine learning and statistics. We are particularly interested in Term Weighting Schemes (TWS) in the context of supervised learning and specifically the Text Classification (TC) task. In TC, the multi-label classification task has gained a lot of interest in recent years. Multi-label classification from textual data may be found in many modern applications such as news classification where the task is to find the categories that a newswire story belongs to (e.g., politics, middle east, oil), based on its textual content, music genre classification (e.g., jazz, pop, oldies, traditional pop) based on customer reviews, film classification (e.g. action, crime, drama), product classification (e.g. Electronics, Computers, Accessories). Traditional classification algorithms are generally binary classifiers, and they are not suited for the multi-label classification. The multi-label classification task is, therefore, transformed into multiple single-label binary tasks. However, this transformation introduces several issues. First, terms distributions are only considered in relevance to the positive and the negative categories (i.e., information on the correlations between terms and categories is lost). Second, it fails to consider any label dependency (i.e., information on existing correlations between classes is lost). Finally, since all categories but one are grouped into one category (the negative category), the newly created tasks are imbalanced. This information is commonly used by supervised TWS to improve the effectiveness of the classification system. Hence, after presenting the process of multi-label text classification, and more particularly the TWS, we make an empirical comparison of these methods applied to the multi-label text classification task. We find that the superiority of the supervised methods over the unsupervised methods is still not clear. We show then that these methods are not fully adapted to the multi-label classification problem and they ignore much statistical information that coul be used to improve the classification results. Thus, we propose a new TWS based on information gain. This new method takes into consideration the term distribution, not only regarding the positive and the negative categories but also in relevance to all classes. Finally, aiming at finding specialized TWS that also solve the issue of imbalanced tasks, we studied the benefits of using genetic programming for generating TWS for the text classification task. Unlike previous studies, we generate formulas by combining statistical information at a microscopic level (e.g., the number of documents that contain a specific term) instead of using complete TWS. Furthermore, we make use of categorical information such as (e.g., the number of categories where a term occurs). Experiments are made to measure the impact of these methods on the performance of the model. We show through these experiments that the results are positive
APA, Harvard, Vancouver, ISO, and other styles
41

STOICA, Dragos. "Analyse, representation et optimisation de la circulation des avions sur une plate-forme aeroportuaire." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2004. http://tel.archives-ouvertes.fr/tel-00009323.

Full text
Abstract:
Au cours des dernieres decennies, la demande de trafic au niveau des aeroports a augmente regulierement a tel point que le trafic au sol est devenu critique pour la securite et l'efficacite des operations aeroportuaires. Cette these propose une approche a deux niveaux pour l'analyse et l'optimisation du trafic avion au sol sur les aeroports. Elle est divisee en trois parties: - La premiere partie introduit la problematique generale et son environnement - La deuxieme partie traite la gestion a moyen terme du trafic au sol des avions. Une approche globale pour estimer la capacite theorique et la capacite pratique du trafic avion est proposee. Celle-ci met en Suvre une approche d'optimisation du flux dans un reseau qui conduit a la formulation de differents problemes de programmation mathematique - La troisieme partie traite du niveau tactique et une approche adaptative est developpee pour definir les routes et les horaires associes aux mouvement d'arrivee ou de depart des avions. Une approche de resolution operationnelle est alors proposee.
APA, Harvard, Vancouver, ISO, and other styles
42

Rachdi, Mohamed Anouar. "Optimisation des ressources de réseaux hétérogènes avec coeur de réseau MPLS." Phd thesis, INSA de Toulouse, 2007. http://tel.archives-ouvertes.fr/tel-00146229.

Full text
Abstract:
La qualité de service (QoS), liée au partage des ressources, prend tout son sens dans le cadre des réseaux multimédias. L'intégration de celle-ci dans les protocoles de routage, nécessite la prise en compte des phénomènes de congestion. Cela a favorisé l'apparition du protocole MPLS (Multi Protocol Label Switching). Cette nouvelle technologie, grâce à son routage par LSP (Label Swithed Path), permet une gestion plus fine des ressources disponibles dans le réseau. Nous traitons en première partie de ce travail le problème du routage des LSPs dans les réseaux IP/MPLS. Nous en formulons une modélisation originale qui tient compte de la QoS. Nous proposons aussi une heuristique de résolution (ILSP-OLS-ACO) qui gère un grand nombre de contraintes opérationnelles, tels que la bande passante, les contraintes d'affinités ou de sécurité sur les LSPs. Celle-ci fournit des solutions quasi-optimales tout en permettant le passage à l'échelle (grands réseaux, milliers de LSPs). La deuxième partie de notre travail concerne la conception optimale de topologie d'accès. L'originalité de l'approche réside dans le fait de prendre en compte le trafic générés par les clients ainsi que les coûts des équipements. Nous élaborons une modélisation basée sur la programmation linéaire en nombres entiers. Nous proposons pour la résoudre une méthode exacte basée sur des techniques de « Branch and Cut ». Nous proposons aussi une heuristique combinant une technique de « clustering » et une technique de recherche locale, qui permet d'obtenir très rapidement des solutions quasi-optimales.
APA, Harvard, Vancouver, ISO, and other styles
43

Harrath, Youssef. "Contribution à l'ordonnancement conjoint de la production et de la maintenance : Application au cas d'un Job Shop." Phd thesis, Université de Franche-Comté, 2003. http://tel.archives-ouvertes.fr/tel-00260243.

Full text
Abstract:
Le contexte de notre travail s'intéresse à l'ordonnancement d'un atelier de type job shop. L'objectif de la thèse concerne l'élaboration d'une méthode de résolution aussi bien dans le cas classique d'un ordonnancement relatif à la production que dans le cas beaucoup moins étudié touchant l'ordonnancement conjoint de la production et de la maintenance. Les algorithmes génétiques ayant fait leur preuve dans le domaine aussi bien mono objectif que multiobjectif seront à la base de notre étude. Etude faite tout d'abord sur un problème classique de job shop noté J / / Cmax , en ne tenant pas compte des contraintes de disponibilité des machines, puis en introduisant dans un deuxième temps l'aspect de maintenance préventive ayant des objectifs parfois antagonistes avec la production et qui nécessite une résolution multiobjectif. Notre contribution comporte deux volets. Le premier volet prend appui sur les solutions générées par un algorithme génétique qui sont étudiées par des méthodes d'apprentissage. Méthodes qui seront resituées dans le processus d'Extraction de Connaissance à partir des Données (ECD). Dans un soucis de validation et de comparaison par rapport aux travaux faits dans la communauté, la démarche proposée a été élaborée sur un problème classique de type J / / Cmax et sur des benchmarks connus. Le deuxième volet propose un algorithme génétique Pareto optimal résolvant le problème d'ordonnancement conjoint de la production et de la maintenance au sein du job shop. Cet algorithme génétique génère des solutions Pareto optimales. Solutions que nous validerons par des bornes inférieures. Nous optons pour la maintenance préventive systématique pour l'appliquer dans l'atelier de job shop. L'une des difficultés majeures de ce type de maintenance est le choix des périodes d'interventions. Nous proposons dans ce cadre deux méthodes de choix de périodes systématiques.
APA, Harvard, Vancouver, ISO, and other styles
44

Ben, Fradj Hanene. "Optimisation de l'énergie dans une architecture mémoire multi-bancs pour des applications multi-tâches temps réel." Phd thesis, Université de Nice Sophia-Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00192473.

Full text
Abstract:
De nombreuses techniques ont été développées pour réduire la consommation processeur considéré jusqu'à présent comme l'élément le plus gourmand en consommation. Avec l'évolution technologique et l'apparition de nouvelles applications toujours plus volumineuses en nombre de données, la surface de silicium dédiée aux unités de mémorisation ne cesse de croître. Les techniques d'optimisation ciblant uniquement le processeur peuvent alors être remises en cause avec cette nouvelle tendance. Certaines études montrent que la technique du DVS (Dynamic Voltage Scaling), la plus performante dans la réduction de la consommation processeur, augmente la consommation de la mémoire principale. Cette augmentation est la conséquence d'une part d'une co-activation plus longue de la mémoire avec le processeur et d'autre part de l'augmentation du nombre de préemptions par l'allongement des temps d'exécution des tâches. La solution proposée pour diminuer cet impact négatif du DVS sur la consommation mémoire est de diminuer la surface mémoire co-active. Une architecture mémoire multi-bancs, offrant la possibilité d'activer un seul banc à la fois et de mettre les autres bancs dans un mode faible consommation, est adoptée. Rechercher la configuration mémoire (nombre de bancs, taille de chaque banc) ainsi que l'allocation des tâches aux bancs constitue la contribution majeure de ces travaux. La modélisation de l'énergie consommée par une mémoire multi-bancs a permis d'identifier un nombre important de variables ainsi que leurs fortes dépendances. Cette tendance a rendu le problème difficile à résoudre. Une exploration exhaustive est premièrement développée afin d'évaluer l'impact de chaque paramètre sur la consommation totale de la mémoire. Bien que l'approche exhaustive permette de rendre la solution optimale, l'espace d'exploration augmente exponentiellement avec le nombre de tâches. Ce type de résolution reste intéressant s'il s'agit de l'employer hors ligne sur des applications à faible nombre de tâches. Une heuristique capable d'explorer un sous-espace potentiellement intéressant et de résoudre le problème en un temps polynomial a été développée dans un second temps. La complexité réduite de cette heuristique permet de l'employer en ligne pour effectuer des migrations dans le cas de systèmes à nombre de tâches dynamiques. Des expérimentations sur des applications de traitement de signal temps réel et une application multimédia (GSM et MPEG2) montrent des gains intéressants sur la consommation mémoire. La configuration mémoire obtenue par exploration exhaustive ou par la résolution heuristique couplée à un processeur muni d'une technique de DVFS permet d'augmenter le gain énergétique du système total.
APA, Harvard, Vancouver, ISO, and other styles
45

Guyon, Thierry. "Chaine de biotélémesure pour déterminer le pH dans l'appareil digestif des ruminants : optimisation des procédés de télétransmission, de saisie et de traitement automatique du signal." Vandoeuvre-les-Nancy, INPL, 1995. http://docnum.univ-lorraine.fr/public/INPL_T_1995_GUYON_T.pdf.

Full text
Abstract:
La mesure du pH à l'intérieur de l'appareil digestif des ruminants, permet de connaitre l'évolution de la fermentation microbienne en fonction du régime alimentaire donné. Le prélèvement du liquide gastrique s'effectue actuellement, par un tube œsophagien ou par une canule donnant un accès direct au rumen ; cette méthode est difficile et particulièrement stressante pour l'animal. L’objectif de cette recherche est de concevoir un système de biotélémesure inséré dans le milieu ruminal, mesurant le pH en différents endroits du rumen de la chèvre. Après un rappel théorique des différentes techniques employées dans les systèmes de biotélémétrie, nous décrivons les principales fonctions utilisées dans notre système implanté: mesure du pH effectuée par les microélectrodes, conversion analogique numérique réalisée par le microprocesseur, l'alimentation par piles et la transmission des données en modulation de fréquence. À l'extérieur, le signal après avoir été démodule par un récepteur F. M. , est transmis numériquement vers un ordinateur ; le traitement informatique (labview) du signal, permet un affichage presque en temps réel des mesures. Après quelques réglages effectués en laboratoire, l'introduction de notre prototype à l'intérieur du rumen, nous a permis d'évaluer les performances d'un système de biotélémétrie dans des conditions réelles
APA, Harvard, Vancouver, ISO, and other styles
46

Cherry, Ali. "Etude, conception et optimisation d'une plate-forme de mesure de micro et nano force par flottaison magnétique." Phd thesis, Université de Franche-Comté, 2009. http://tel.archives-ouvertes.fr/tel-00417240.

Full text
Abstract:
En microrobotique, la mesure de micro et nano force figure parmi les informations nécessaires pour caractériser les interactions mécaniques présentes à l'échelle micrométrique. Dans cette optique, nous avons développé un capteur de mesure micro et nano force reposant sur un principe de flottaison-magnétique. L'organe sensible du capteur est une plate-forme macroscopique rectangulaire sur laquelle s'appliquent les forces et couples à mesurer. La sustentation et le maintien de la plate-forme sont assurés par le biais de forces magnétiques et de la poussée d'Archimède appliquée à quatre flotteurs placés à ses coins. La plate-forme est conçue pour mesurer uniquement des forces dan le plan horizontal ainsi que le couple vertical associé. L'étendue de mesure des forces varie entre -100 et +100 micronN avec une résolution de l'ordre du nanoNewton. elle travaille en mode actif grâce à un asservissement autour de sa configuration d'équilibre (établie en absence d'efforts à mesurer). La nature des efforts de rappel utilisés pour la mise en oeuvre de l'asservissement est électromagnétique. Les modèles magnétique et électromagnétique développés permettent alors de déterminer les forces qui s'appliquent au centre de gravité de la plate-forme par le biais de la connaissance de la configuration spatiale de cette dernière et des courants dans les bobines de commande. En termes d'application, cette plate-forme peut être utilisée dans le cadre de la caractérisation des micro-objets déformables (micromécanismes, cellules, etc...) et des microsurfaces.
APA, Harvard, Vancouver, ISO, and other styles
47

Aubry, Alexis. "Optimisation pour la configuration robuste de systèmes de production de biens et de services." Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00204407.

Full text
Abstract:
Les travaux présentés dans ce mémoire apportent une contribution à la configuration des systèmes de production en contexte incertain. Les différents outils permettant d'appréhender l'incertain en optimisation sont d'abord présentés. Nous insistons plus particulièrement sur la notion de robustesse à travers l'approche utilisée dans le cadre de nos travaux. Nous présentons ensuite deux applications : la configuration d'un atelier de machines partiellement multifonctions soumis à des incertitudes sur la demande et la configuration d'un réseau de distribution d'électricité soumis à des incertitudes sur les caractéristiques de puissance. Pour chaque application, nous identifions les perturbations prises en compte ainsi que les performances attendues en présence de ces perturbations. Nous proposons ensuite un critère de robustesse en adéquation avec cette problématique. Enfin des méthodes de résolution sont proposées pour appréhender les différents problèmes mis en évidence par ce critère.
APA, Harvard, Vancouver, ISO, and other styles
48

Mouelhi, Ouael. "Contribution à l'optimisation multiobjectif en conception multidisciplinaire." Phd thesis, INSA de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00824460.

Full text
Abstract:
Ce travail de recherche entre dans le cadre de la conception pluridisciplinaire de systèmes techniques. Son contexte est le processus support à l'optimisation en conception organique suivant l'approche d'Ingénierie Système. La problématique est l'affectation des variables et le choix de composants en tenant compte des possibilités de couplage entre les disciplines et des objectifs multiples à satisfaire. L'objectif poursuivi est un apport méthodologique et outillé pour l'aide à l'optimisation multiobjectif et multidisciplinaire. La contribution comporte deux volets principaux. D'une part, deux méthodes de recherche basées sur les méta-heuristiques permettent de déterminer rapidement un ensemble des solutions efficaces. D'autre part, l'application de méthodes de discrimination fournit aux concepteurs une aide à l'interprétation des ensembles de solutions efficaces dégagés dans la phase d'optimisation. Ces propositions sont illustrées par deux exemples de conception en robotique.
APA, Harvard, Vancouver, ISO, and other styles
49

Alkhatib, Hasan. "ETUDE DE LA STABILITE AUX PETITES PERTURBATIONS DANS LES GRANDS RESEAUX ELECTRIQUES : OPTIMISATION DE LA REGULATION PAR UNE METHODE METAHEURISTIQUE." Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2008. http://tel.archives-ouvertes.fr/tel-00408160.

Full text
Abstract:
Depuis une vingtaine d'années, les grands réseaux électriques se trouvent obligés de fonctionner à pleine puissance et souvent aux limites de la stabilité. L'amélioration de la stabilité aux petites perturbations, en particulier l'amortissement des oscillations interrégionales, est donc devenue un objectif prioritaire. Les interactions entre les générateurs de différentes régions et les régulateurs utilisés nécessitent une optimisation globale de leurs performances : c'est le meilleur moyen pour assurer le comportement optimal de l'ensemble. L'objectif de ce travail est d'assurer un amortissement maximum, aussi bien des modes interrégionaux que des modes locaux, à l'aide des stabilisateurs de puissance (PSS) généralement utilisés pour l'amortissement des modes électromécaniques locaux. Pour ce faire, nous avons développé une méthode d'optimisation globale basée sur les algorithmes génétiques et une fonction multiobjectif déterminée à partir de l'analyse des valeurs propres du système. Nous avons analysé l'influence de l'augmentation progressive du nombre de variables à optimiser simultanément (paramètres, emplacement et nombre des PSSs). La méthode que nous proposons permet un réglage optimal des PSSs avec le meilleur emplacement possible et un nombre réduit de PSSs. Nous avons proposé en outre une nouvelle méthode d'optimisation utilisant des contraintes dynamiques adaptatives de l'espace de recherche afin d'améliorer les performances et la rapidité de convergence de cet algorithme. Les performances de ces méthodes d'optimisation ont été évaluées sur le réseau multimachines interconnecté New England / New York par analyse des valeurs propres du modèle linéaire du système et simulations temporelles du modèle non-linéaire originel.
APA, Harvard, Vancouver, ISO, and other styles
50

Arda, Yosemin. "Politiques d'approvisionnement dans les systèmes à plusieurs fournisseurs et optimisation des décisions dans les chaînes logistiques décentralisées." Phd thesis, INSA de Toulouse, 2008. http://tel.archives-ouvertes.fr/tel-00480960.

Full text
Abstract:
La coordination des flux physiques au sein des chaînes logistiques est une tâche difficile à cause du caractère aléatoire des variations dues au marché et aux partenaires commerciaux et des antagonismes existants entre les objectifs économiques des partenaires. Les travaux développés dans cette thèse s'intègrent dans le cadre de pilotage de flux inter-organisationnelle dans les chaînes logistiques. Nous analysons deux approches ayant le but d'améliorer les performances des systèmes de production/stockage pilotés par des politiques de pilotage flux du type stock nominal. Dans la première approche, nous étudions les effets des stratégies multi-fournisseurs sur les performances des chaînes logistiques. Nous montrons que le délai moyen d'approvisionnement et les coûts moyens de stockage et de rupture de stock peuvent être réduits en optant pour une stratégie multi-fournisseurs. Dans la deuxième approche, nous analysons la dégradation de performances due à la décentralisation des décisions dans une chaîne logistique à deux niveaux en définissant un jeu de Stackelberg entre les partenaires. Nous proposons un contrat de coordination et montrons que le contrat proposé ramène les performances du système décentralisé vers les performances optimales du système centralisé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography