To see the other types of publications on this topic, follow the link: Compressor optimisation.

Dissertations / Theses on the topic 'Compressor optimisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Compressor optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Burman, Jörgen. "Design optimisation of aeroengine compressor blades." Licentiate thesis, Luleå, 2001. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-25824.

Full text
Abstract:
Optimisation of multistage axial compressors is a time-demanding challenge in large need of effective methods. Traditionally, the design has been based on "trial-and-error" procedures, which count on the skills and experience of the designer to suggest redesigns that are likely to yield improvements. While design by "trial-and-error" usually yield acceptable solutions, automatic shape optimisation will assist in finding the optimal design and shorten the design cycle. This thesis considers issues that have to be solved before automatic shape optimisation of compressor blades can be performed, as well as a demonstration of the developed methods suitability for optimising 2D compressor blades. In paper A the geometry parameterisation of compressor blades is studied. Non-Uniform Rational B-Splines (NURBS) are used for the basic geometry description. The profile shape is then described in terms of traditional parameters, e.g. throat and maximum thickness, and an optimisation algorithm is used to adjust the NURBS parameters until the requested values of the traditional parameters are obtained. In paper B the presence of numerical noise in the objective function is investigated. The occurrence of numerical noise is related to the discretisation of the partial differential equations describing the flow. The truncation error in the flow equations together with the discontinuous change in the grid as the geometry is modified will produce a small amplitude "wave-pattern" imposed on the objective function. Two optimisation techniques, a response surface model and a gradient based method, are used to study how the solution is affected by the numerical noise when minimising the pressure drop in an axisymmetric contraction. In paper C the geometry definition using implicit design variables (paper A) is combined with a response surface model (paper B) to optimise the performance of a 2D compressor blade for a jet engine. The results show that the geometry modification strategy using implicit design variables can be used for optimisation. However, more experience is necessary before a definite conclusion can be drawn to claim that using these design parameters are superior to using the control points of the NURBS.
Godkänd; 2001; 20070314 (ysko)
APA, Harvard, Vancouver, ISO, and other styles
2

Rattanakit, Rattanachai. "Optimisation of the aluminium compressor impeller machining process." Thesis, University of Birmingham, 2013. http://etheses.bham.ac.uk//id/eprint/4044/.

Full text
Abstract:
The research involved the optimisation of various machining operations for the manufacture of automotive turbocharger impellers. Phase 1 work comprised a capability study of the Al-Si C355 impeller machining process within Doncasters Sterling. The results highlighted that both C\(_p\) and C\(_{pk}\) values were generally above the automotive industry standard of 1.66 and that current processes were capable of producing parts to specification. Benchmark testing of TiN coated WC and PCD tooling against uncoated WC was undertaken in Phase 2 experiments. While the PCD tools showed significant improvement, the TiN coated tools were inferior in terms of thrust force, torque and workpiece surface roughness when compared against the uncoated WC tools. Phase 3 research evaluated the performance of advanced diamond like carbon (DLC) coatings against WC when blind-hole drilling C355 and reaming 6082-T6 aluminium alloys. Benefits in terms of extended tool life and reduced material adhesion/BUE were observed when drilling and reaming using the commercial Graphit-iC™ coating. The performance of CVD diamond coated and PCD tools were also assessed with the latter showing lower wear rates with negligible workpiece adhesion/BUE compared to WC in both drilling and reaming experiments. The former however failed catastrophically at high cutting speeds during drilling.
APA, Harvard, Vancouver, ISO, and other styles
3

Chan, Kuan Yoong. "Investigation and performance optimisation of multi compressor refrigeration system." Thesis, Brunel University, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.247504.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Boyle, R. J. "Valve design optimisation for a 3-cylinder semi-hermetic reciprocating refrigeration compressor." Thesis, University of Strathclyde, 1985. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.381314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Jiang, Zongchuan. "Integration of CAD, CAM and computer aided inspection for the development of complex shaped products." Thesis, Glasgow Caledonian University, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.364776.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ahmed, Noukhez. "Performance evaluation and optimisation of vaneless diffuser of various shapes for a centrifugal compressor." Thesis, University of Huddersfield, 2018. http://eprints.hud.ac.uk/id/eprint/34684/.

Full text
Abstract:
In recent years, diesel engines with reduced emissions and low fuel consumption have been developed worldwide for the purpose of environmental protection and energy conservation. Turbochargers are playing an important role in these modern engines by providing power boost to the engine. A turbocharger comprises of three major parts i.e. the turbine stage, the bearing housing and the compressor stage. Turbocharger designers are continuously seeking for compact stage designs, while maintaining the stage performance. A turbocharger’s compressor stage comprises of various parts i.e. inlet, impeller, diffuser and volute. The diffuser is an important section of the turbocharger compressor stage that plays a key role in increasing the isentropic efficiency of the stage. The diffuser converts the kinetic energy imparted to the flow by the impeller, into static pressure rise, which inturn increases the isentropic efficiency of the stage. The shape of a diffuser is conventionally simple in design. Modifications to the diffuser geometry can lead to higher efficiencies and compact designs of the compressor stage. The present study focuses on the use of advanced computational techniques, such as Computational Fluid Dynamics (CFD), to analyse the effects of diffuser modifications on the local flow features, and the global performance parameters. A baseline diffuser configuration, consisting of a parallel wall diffuser, is numerically analysed to establish the accuracy of CFD based predictions. Various diffusers’ geometrical configurations have been analysed in the present study, both qualitatively and quantitatively. These geometrical configurations cover a wide range, such as diverging, tilting and curving of the diffuser walls. These parametric investigations aid to improve the compressor stage performance and make it more compact. The first aim of the study is to quantify the increase in the stage performance by diverging the straight wall vaneless diffuser passage. This is carried out by diverging the shroud wall (i.e. increasing the outlet-to-inlet width ratio) and varying the location of the divergence point on the shroud wall. The results obtained depict that the effect of increasing the diffuser’s outlet-to-inlet width ratio is dominant in comparison with the location of the wall divergence point. Moreover, increase in diffuser’s outlet-to-inlet width ratio increases the downstream area ratio of the diffuser, causing the flow to separate and creating flow recirculation near the hub wall. This creates restriction to the flow and causes air blockage. Furthermore, shifting the wall divergence point towards the outlet of the diffuser relocates the flow separation point closer to the diffuser exit. The second aim of this study is to analyse the effects of tilted diffuser walls on the flow variables within the compressor stage of the turbocharger. Tilting diffuser walls provides an increased streamwise length to the flow. Furthermore, divergence is applied to the diffuser hub wall in order to increase the outlet-to-inlet width ratio. This makes the turbocharger compressor stage compact in design, while maintaining the stage performance, which is the current requirement of the automotive sector. Design of Experiments, using Taguchi method, has been incorporated in this study to define the scope of the numerical work. The results obtained show that the diffuser with both titled and diverged walls together, performs optimally as compared to the other configurations considered. The third aim of this study is to use curved diffuser walls in order to make the design more compact. Divergence to the hub wall is also applied to enhance the performance of the compressor stage. Various configurations of curvilinear diffuser walls have been considered for numerical analysis. The local flow field analysis has been carried out, quantifying the effects of the geometrical parameters on the stage performance. The results depict that a curved diffuser model reduces the losses within the diffuser passage, but there is negligible effect on the stage efficiency. However, when the divergence is applied to the hub wall of the curved diffuser, there is significant increase in the stage efficiency. Based on these investigations, a turbocharger’s compressor stage can be designed for a compact design and optimal efficiency.
APA, Harvard, Vancouver, ISO, and other styles
7

Clemen, Carsten. "Entwicklung eines Verfahrens für den dreidimensionalen Entwurf von Rotoren in Axialverdichtern." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2009. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-23436.

Full text
Abstract:
Die heutige und zukünftige Entwicklung beim Entwurf von Axialverdichtern für die Anwendung in Flugzeugtriebwerken ist immer stärker davon geprägt, ein möglichst großes Druckverhältnis mit möglichst wenigen Stufen zu erzeugen. Ziel ist es, möglichst viel Leistung mit möglichst geringem Gewicht umzusetzen, um die Effizienz der Maschine weiter zu verbessern. Um dies zu erreichen, muss eine Erhöhung der Stufendruckverhältnisse und damit eine Erhöhung der Stufenbelastung in Kauf genommen werden. Die höhere Belastung hat jedoch einen Anstieg der Verluste aufgrund der stärker werdenden Sekundärströmungen zur Folge, und wirkt sich zunächst negativ auf die Stabilität und den Wirkungsgrad der Maschine aus. Diese negativen Effekte können nur durch eine Weiterentwicklung der Schaufelgeometrie kompensiert werden. Hierbei stoßen die derzeit benutzten Entwurfsmethoden jedoch an ihre Grenzen. Aus diesem Grund wurde ein neues Verfahren für den dreidimensionalen Entwurf von Rotoren in Axialverdichtern entwickelt. In dieser Arbeit wird dessen Entwicklung präsentiert. Das Verfahren umfasst die systematische Anwendung von Pfeilung und V-Stellung, sowie die dreidimensionale inverse Berechnung der radialen Skelettlinienverteilung. Um damit eine Verbesserung des Rotorwirkungsgrades zu erreichen, müssen vor allem die kritischen wand- bzw. spaltnahen Bereiche optimal an die Strömungsumgebung angepasst werden. Die vorliegende Arbeit beschreibt ausführlich die theoretischen Grundlagen der Rotorströmung und des Rotorentwurfs. Basierend darauf werden für die Umsetzung eines vollständigen dreidimensionalen Schaufelentwurfs zwei Panelverfahren zur Berechnung der dreidimensionalen jedoch reibungslosen Strömung, zur Lösung der Nachrechen- bzw. der Entwurfsaufgabe, entwickelt. Die Panelverfahren werden angewandt, um eine Methodik für den effektiven Einsatz von Pfeilung, V-Stellung und inverser Skelettlinienberechnung für den dreidimensionalen Rotorentwurf festzulegen. Die gewonnenen Erkenntnisse werden anschließend für den Entwurf eines hochbelasteten Rotors in einem einstufigen Niedergeschwindigkeitsverdichter nach dieser neuen Entwurfsmethodik genutzt. Anhand von Ergebnissen aus Rechnungen und Messungen für diesen Rotor wird die Wirksamkeit des Verfahrens demonstriert
The recent and future design of axial compressors for aero engines is strongly affected by the aim to generate a high pressure ratio with less stages to increase power and reduce weight to achieve an improved efficiency. This can only be achieved when the stage pressure ratio is raised which leads to increased stage loading. But the higher stage loading results in higher losses caused by stronger secondary flows. This has a negative effect on compressor stability and efficiency. To counteract the negative effects enhanced blade geometries are necessary. With the recently used design methods this is hardly to achieve. For that reason a new method for the three-dimensional design of rotors and stators in axial compressors has been developed. This report summarizes that work. The method accounts for the systematic application of sweep and dihedral as well as the three-dimensional inverse calculation of the camber-line distributions along blade height. To achieve improved efficiency the regions close to the end-walls and the tip and hub gap have to be adapted to the flow environment. The recent report described in detail the theoretical background of the compressor blade flow and compressor blade design. Based on that, two inviscid panel methods for the fully three-dimensional design of compressor blades are described. The panel methods are applied to define a methodology for the effective application of sweep, dihedral and inverse camber-line calculation in a three-dimensional blade design process. Afterwards the findings are used to design a highly-loaded single-stage low-speed research compressor rotor. The validity of the presented design method is proven with CFD and test results
APA, Harvard, Vancouver, ISO, and other styles
8

Bethel, David. "Optimisation of still image compression techniques." Thesis, University of Bath, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.242523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Handcock, Jason Anthony. "Video compression techniques and rate-distortion optimisation." Thesis, University of Bristol, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.326726.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ghisu, Tiziano. "Robust aerodynamic design optimisation of compression systems." Thesis, University of Cambridge, 2009. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.611418.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

OUAISSA, KARIM. "Optimisation des techniques de compression des signaux multimédia." Paris, CNAM, 1998. http://www.theses.fr/1998CNAM0328.

Full text
Abstract:
Le travail decrit porte sur l'optimisation des techniques de compression de donnees et leur application a la parole et l'image. D'abord, la norme courante en communications, la recommandation v42 bis du ccitt a ete consideree et des perfectionnements ont ete apportes. Le codage de repetitions a ete introduit et une technique d'adaptation dynamique de l'algorithme lzw par elimination des branches libres de l'arbre a ete elaboree. De plus, l'algorithme a ete complete par l'utilisation de deux dictionnaires et l'optimisation du mot de code. Ces modifications conduisent a des gains significatifs en taux de compression. L'application a la parole a ete faite en considerant les codeurs qui font appel a un dictionnaire, les codeurs de type celp, l'objectif etant de reduire le debit en combinant un codeur entropique avec le codeur celp. Le codeur entropique a permis de reduire considerablement la redondance residuelle pour deux types de parametres du codage celp, les coefficients lsp et les gains. Globalement, le gain en debit sur la parole comprimee peut atteindre 7%. Pour l'image, c'est la norme iso (10118), jpeg qui a ete consideree. On a d'abord complete la gamme des codeurs entropiques utilises en introduisant un codeur lzw. Les resultats obtenus en taux de compression sont proches et parfois meilleurs que ceux du processus de base utilisant les tables de huffman figurant dans la norme, au prix d'une complexite un peu superieure. Pour la compression sans pertes, en modifiant le processus de jpeg, une nouvelle technique de compression basee sur une transformation reversible a ete etudiee. Des resultats tres encourageants ont ete obtenus pour certaines images. Enfin, dans le chapitre v une approche differente de la compression a ete elaboree, en faisant appel a une transformation non lineaire qui comprime le spectre du signal et se combine a une reduction de frequence d'echantillonnage pour reduire le debit. Les resultats obtenus sur de la parole sont encore modestes, mais l'approche est perfectible. L'ensemble du travail presente a permis d'elargir le champs d'application du codage entropique et de completer la gamme des techniques de compression.
APA, Harvard, Vancouver, ISO, and other styles
12

Fouquet, Jérémie. "Imagerie par résonance magnétique in vivo de la vascularisation cérébrale chez la souris : optimisation et accélération par acquisition compressée." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8805.

Full text
Abstract:
Résumé : Imager la vascularisation cérébrale de la manière la plus exacte, précise et rapide possible représente un enjeu important pour plusieurs domaines de recherche. En plus d’aider à mieux comprendre le fonctionnement normal du cerveau, cela peut servir à caractériser diverses pathologies ou à développer de nouveaux traitements. Dans un premier temps, ce mémoire présente l’optimisation d’une technique d’angiographie cérébrale in vivo chez un modèle animal fréquemment utilisé, la souris. La technique emploie une séquence d’imagerie par résonance magnétique (IRM) 3D pondérée en susceptibilité ainsi qu’un agent de contraste, le Resovist. Les paramètres d’acquisition à l’IRM ont été optimisés à l’aide d’images acquises avant l’injection du Resovist. Ces paramètres permettent d’imager le cerveau entier en 41 minutes avec une résolution de 78 × 78 × 104 μm3. L’emploi d’une pondération en susceptibilité offre une excellente sensibilité aux petits vaisseaux (diamètre ≃ 40μm). L’analyse des images permet d’extraire des informations sur la morphologie vasculaire. Dans un second temps, la méthode de l’acquisition compressée (AcqC) a été implémentée dans le but d’accélérer l’acquisition des images angiographiques. La méthode de l’AcqC utilise des hypothèses de compressibilité des images pour diminuer la quantité de données acquise. L’AcqC a jusqu’à présent principalement été développée pour des images réelles (au sens des nombres complexes). Or, les images angiographiques obtenues présentent d’importantes variations de phase en raison de la pondération en susceptibilité. La présence de ces variations diminue d’une part la force des hypothèses de compressibilité habituelles et rend d’autre part l’espace-k moins propice au sous-échantillonnage requis par l’AcqC. En raison de ces deux facteurs, l’AcqC standard s’avère inefficace pour accélérer l’acquisition des images angiographiques acquises. Leur mise en lumière suggère cependant différentes pistes pour améliorer l’AcqC appliquée aux images comportant d’importantes variations de phase.
Abstract : Imaging neurovasculature with highest exactitude, precision and speed is of critical importance for several research fields. Beside providing an insight on normal brain activity, it can help characterize numerous pathologies or develop novel treatments. This thesis presents in its first part the optimization of a cerebral angiographic in vivo technique in a frequently used animal model, the mouse. The technique uses both a 3D magnetic resonance imaging (MRI) susceptibility weighted sequence and a strongly paramagnetic contrast agent, Resovist. MRI acquisition parameters were optimized using images acquired before contrast agent injection. Those parameters allow whole brain vascular imaging of the mouse brain in 41 minutes with a 78 × 78 × 104 μm3 resolution. Susceptibility weighting offers an excellent detection sensitivity for small vessels (diameter ≃ 40μm). Image treatment and analysis allow the extraction of vascular morphological information such as vessel size and vessel density. In the second part of this thesis, an attempt to accelerate angiographic images acquisition using the compressed sensing (CS) method is presented. CS method aims at reducing the acquired data by using compressibility hypothesis on images. Presently, CS is mainly developped for real images (within the meaning of complex numbers). However, the previously obtained angiographic images contain important phase variations due to the susceptibility weighting. First, those variations reduce the strength of the compressibility hypothesis normally used in CS. Second, those same variations make information distribution in k-space less appropriate for the undersampling required by CS. For those reasons, standard CS does not allow significant acceleration of the acquisition process for the presented angiographic technique. Studying those reasons however suggests new ways to increase CS efficiency when applied to images with important phase variations.
APA, Harvard, Vancouver, ISO, and other styles
13

Montanez, Morantes Maria Vanessa. "Operational optimisation of low-temperature energy systems." Thesis, University of Manchester, 2015. https://www.research.manchester.ac.uk/portal/en/theses/operational-optimisation-of-lowtemperature-energy-systems(a22bd339-1473-4401-bbc5-2e1280e57756).html.

Full text
Abstract:
Low-temperature energy systems are processes that operate below ambient temperatures and make use of refrigeration cycles, where the main energy consumption is due to the shaft work required to drive the compressors. Very-low-temperature energy systems, also known as cryogenic processes, operate at around -150°C and below. Due to increasing demand of products from cryogenic processes and tighter environmental regulations, existing plants need to be revamped to increase their energy efficiency or adapt to new processing capacities. So, accurate models of the performance of cryogenic processes are needed in order to optimise their operation. The present work proposes a new approach for optimising the operating conditions of existing refrigeration cycles in cryogenic processes, using pure refrigerants, for different plant operating conditions. In this work, the process conditions are considered as given and not considered as variables during the optimisation. The operational optimisation is achieved by integrating models for the part-load performance of centrifugal compressors and models for the simulation of plate-fin heat exchangers (PFHEs), into a single optimisation approach. An optimisation approach similar to the one proposed in this work was not found in the open literature. The optimisation approach varies the refrigerant evaporation temperatures, flow rates and cooling duties, minimum temperature difference in PFHEs, and rotational speed of compressors. The objective function seeks to minimise shaft work demand and the constraints consider the operational limitations of centrifugal compressors (minimum and maximum flow rates) and PFHEs (no temperature crosses and meeting the target temperatures of the process streams). In order to explore the solution space that is generated by the complex interactions between the variables and find an approximation to a global optimum, a multistart optimisation algorithm is implemented. The part-load centrifugal compressor model implemented in this work uses regressed data from their performance curves together with the fan laws. The proposed simulation model of PFHEs represents these units as a ‘fictitious’ heat exchanger network of two-stream matches. The simulation model accounts for single and two-phase streams and for the temperature-dependent physical properties of pure refrigerants (e.g. viscosity, heat capacity, etc.). In addition to the simulation model, design and rating models for PFHEs with single and two-phase streams are also proposed. The examples presented in this work for the design, simulation and rating of single and two-phase streams in PFHEs show that the models proposed can find feasible designs, and can predict the outlet temperature of the process streams within ±3°C for different inlet conditions. The example presented in this work for the operational optimisation of refrigeration cycles shows that savings of around 3% in shaft work consumption (up to £0.86 million per year), for different process throughput, can be achieved using the proposed methodology.
APA, Harvard, Vancouver, ISO, and other styles
14

Bin, Zainol Mohd Amiruddin. "PCI express performance and energy optimisation with parallel data compression." Thesis, University of Bristol, 2018. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.761235.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Dailly, Nicolas. "Optimisation des Réseaux d'Accès Mobiles pour les systèmes E-GPRS et B3G." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002838.

Full text
Abstract:
Afin d'améliorer la qualité de service offerte aux abonnés, il est nécessaire de faire évoluer les réseaux d'accès GPRS/EDGE. Cette thèse se propose d'étudier différentes problématiques qui visent à améliorer les débits offerts aux utilisateurs et à mettre en oeuvre un mécanisme de handover qui réponde à leurs besoins. La première partie de cette thèse étudie différents mécanismes d'allocation dynamique de ressources sur l'interface Abis. Ces mécanismes visent en particulier à permettre le déploiement de la technologie E-GPRS tout en préservant la structure de l'interface Abis existante, qui s'appuie sur une structure de trame MIC. La seconde partie de cette thèse analyse différentes approches de handover qui peuvent être mises en oeuvre pour assurer la mobilité dans les réseaux E-GPRS. Nous y formulons quelques propositions pour améliorer les performances du basculement et mettre en place un véritable handover. Nous présentons les évolutions récentes de la normalisation, puis exposons les résultats de nos simulations qui permettent de comparer les performances des différents mécanismes. Notre étude montre les gains de performances obtenus par la préservation des états de transmission au niveau RLC. La troisième partie de cette thèse considère le problème des handover inter-systèmes. Nous y avons analysé le basculement entre une station de base E-GPRS et un point d'accès WIFI intégré au réseau d'accès mobile. Nous avons analysé l'impact du passage d'une pile protocolaire à une autre, ainsi que de la rupture de débit. Nos résultats montrent que l'introduction d'une couche de convergence au niveau liaison de données permet de limiter l'impact du handover au niveau réseau d'accès. Nous analysons, par ailleurs, les mécanismes de handover à mettre en place pour le transfert de données en mode Streaming. Nous démontrons l'intérêt de l'activation de la couche de liaison de données dans le cas de transferts avec le protocole UDP. La quatrième partie étudie les mécanismes de compression qui peuvent être mis en oeuvre pour réduire la taille des messages de signalisation SIP. Cette étude vise à réduire le temps de transmission de la signalisation - à travers des bearer bas débit - et à économiser l'utilisation des ressources radio.
APA, Harvard, Vancouver, ISO, and other styles
16

Ando, Victor Fujii. "Genetic algorithm for preliminary design optimisation of high-performance axial-flow compressors." Instituto Tecnológico de Aeronáutica, 2011. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1969.

Full text
Abstract:
This work presents an approach to optimise the preliminary design of high-performance axial-flow compressors. The preliminary design within the Gas Turbine Group at ITA, is carried on with an in-house computational program based upon the streamline curvature method, using correlations from the literature to assess the losses. The choice of many parameters of the thermodynamic cycle and of geometries relies upon the expertise from the members of the Group. Nevertheless, it is still a laborious and time-consuming task, requiring successive trial and errors. Therefore, to support the compressor designer in the choice of some parameters, an optimisation program, named REMOGA, was written in FORTRAN language, allowing an easy integration with the programs developed by the Gas Turbine Group. The program is based upon a multi-objective genetic algorithm, with real codification and elitism. Then the REMOGA and the preliminary design program were integrated to design a 5-stage axial-flow compressor. Therefore, the stator air outlet angles, the temperature distribution and the hub-tip ratio were varied aiming at higher efficiencies and higher pressure ratios, but controlling the de Haller number and the camber angle. Thanks to the REMOGA, thousands of designs could be quickly evaluated. Finally, using a choice criterion, four solutions were selected for further analysis, revealing that the developed program was successful in finding more efficient and feasible compressor designs.
APA, Harvard, Vancouver, ISO, and other styles
17

Boyer, Claire. "Block-constrained compressed sensing." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30058/document.

Full text
Abstract:
Dans cette thèse, nous visons à combiner les théories d'échantillonnage compressé (CS) avec une structure d'acquisition par blocs de mesures. D'une part, nous obtenons des résultats théoriques de CS avec contraintes d'acquisition par blocs, pour la reconstruction de tout vecteur s-parcimonieux et pour la reconstruction d'un vecteur x de support S fixé. Nous montrons que l'acquisition structurée peut donner de bons résultats de reconstruction théoriques, à condition que le signal à reconstruire présente une structure de parcimonie, adaptée aux contraintes d'échantillonnage. D'autre part, nous proposons des méthodes numériques pour générer des schémas d'échantillonnage efficaces reposant sur des blocs de mesures. Ces méthodes s'appuient sur des techniques de projection de mesure de probabilité
This PhD. thesis is dedicated to combine compressed sensing with block structured acquisition. In the first part of this work, theoretical CS results are derived with blocks acquisition constraints, for the recovery of any s-sparse signal and for the recovery of a vector with a given support S.We show that structured acquisition can be successfully used in a CS framework, provided that the signal to reconstruct presents an additional structure in its sparsity, adapted to the sampling constraints.In the second part of this work, we propose numerical methods to generate efficient block sampling schemes. This approach relies on the measure projection on admissible measures
APA, Harvard, Vancouver, ISO, and other styles
18

Papadopoulos, Miltiadis Alexios. "Perceptually augmented rate-quality optimisation process in modern video compression standards." Thesis, University of Bristol, 2018. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.752789.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Rhead, Andrew T. "Analysis and optimisation of postbuckled damage tolerant composite laminates." Thesis, University of Bath, 2009. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.520992.

Full text
Abstract:
Barely Visible Impact Damage (BVID) can occur when laminated composite material is subject to impact, i.e. from runway debris or dropped tools, and may result in a significant reduction in the compressive strength of composite structures. A component containing BVID subjected to compression may fail via a number of mechanisms. However, it is assumed that the impact damage problems to be modelled will fail by delamination buckling leading to propagation of damage away from the original site. This precludes problems where the initial mechanism of failure is via kink banding or buckling of the full laminate. An analytical model is presented, for application to various composite structures, which predicts the level of compressive strain below which growth of BVID following local buckling of a delaminated sublaminate will not occur. The model is capable of predicting the critical through-thickness level for delamination, the stability of delamination growth, the sensitivity to experimental error in geometric measurements of the damage area and additionally establishes properties desirable for laminates optimised for damage tolerance. Problems treated with the model are split into two impact categories; ‘face’ (i.e. an out-of-plane skin impact) and ‘free edge’ (i.e. an in-plane stiffener edge impact) and two compressive loading regimes; ‘static’ and ‘fatigue’. Analytical results for static and fatigue compression of face impacted plates show an agreement of threshold strain to within 4% and 17% of experimental values respectively. In particular, for impacts to the skin under a stiffener subject to static loading the model is accurate to within 5%. An optimised laminate stacking sequence has shown an experimental increase of up to 29% in static strength can be achieved in comparison to a baseline configuration. Finally, compression testing has been undertaken on three coupons in order to validate an analysis of static free edge problems. Analytical results are, on average, within 10% of experimental results. An optimised laminate is theoretically predicted to increase static compression after free edge impact strength by at least 35%.
APA, Harvard, Vancouver, ISO, and other styles
20

Zaïbi, Sonia. "Optimisation conjointe du codage (décodage) source-canal pour la transmission d' images." Brest, 2004. http://www.theses.fr/2004BRES2002.

Full text
Abstract:
Cette thèse est consacrée à l'optimisation conjointe des fonctions de codage (décodage) de source et de canal d'un système de transmission d'images fixes sur des canaux bruités. Le système de transmission utilise un codage de source emboîté, réalisant une compression progressive des images transmises. Nous proposons, à cet effet, une version robuste de l'algorithme SPIHT. Un code correcteur d'erreurs de type convolutif est introduit dans la chaîne de transmission, le décodage étant effectué par l'algorithme List-Viterbi. Par ailleurs, un mécanisme de détection d'erreurs est intégré dans le processus de codage arithmétique appliqué par le codeur de source, selon la méthode proposée par Boyd et al. Le décodeur arithmétique fonctionne alors conjointement avec l'algorithme List-Viterbi. La dernière partie de cette étude est consacrée à l'optimisation de l'allocation de débit entre un codeur de source emboîté et un schéma de codage de canal appliquant une protection inégale des données. Une généralisation de la méthode de programmation dynamique proposée initialement par Chande et al. , est appliquée pour résoudre le problème d'optimisation en question. Cette méthode est validée sur un système de transmission d'images utilisant les turbo-codes en blocs en codage de canal
This thesis deals with joint optimization of source and channel coding for image transmission over noisy channels. The considered image transmission system includes an embedded source coder, achieving a progressive compression of the transmitted images. We propose a robust version of the SPIHT algorithm. A convolutional error correcting codes is introduced in the system. The List-Viterbi algorithm is used to decode it. Moreover error detection is integrated into the arithmetic coding process applied by he source coder, according to the method proposed by Boyd et al. The arithmetic decoder works then jointly with the list-Viterbi algorithm. In the last part of this work, we consider the optimization of the rate allocation between an embedded source coder and a channel coding scheme applying unequal error protection. A generalization of the dynamic programming method, proposed forst by Chande et al. , is applied to solve the optimization problem. This method is validate on an image transmission system using block turbo codes for channel coding
APA, Harvard, Vancouver, ISO, and other styles
21

Desmorat, Boris. "Optimisation de structures composites." Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Ribardière, Agnès. "Optimisation texturale d'un principe actif : la cristallisation spherique du ketoprofene." Paris 11, 1997. http://www.theses.fr/1997PA114835.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Baaklini, Elias Michel. "Optimisation des applications multimédia sur des processeurs multicœurs embarqués." Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0004/document.

Full text
Abstract:
L’utilisation de plusieurs cœurs pour l’exécution des applications mobiles sera l’approche dominante dans les systèmes embarqués pour les prochaines années. Cette approche permet en générale d’augmenter les performances du système sans augmenter la vitesse de l’horloge. Grâce à cela, la consommation d’énergie reste modérée. Toutefois, la concurrence entre les tâches doit être exploitée afin d’améliorer les performances du système dans les différentes situations où l’application peut s’exécuter. Les applications multimédias comme la vidéoconférence ou la vidéo haute définition, ont de nombreuses nouvelles fonctionnalités qui nécessitent des calculs complexes par rapport aux normes précédentes de codage vidéo. Ces applications créent une charge de travail très importante sur les systèmes multiprocesseurs. L’exploitation du parallélisme pour les applications multimédia, comme le codec vidéo H.264/AVC, peut se faire à différents niveaux : au niveau de données ou bien au niveau tâches. Dans le cadre de cette thèse de doctorat, nous proposons de nouvelles solutions pour une meilleure exploitation du parallélisme dans les applications multimédia sur des systèmes embarqués ayant une architecture parallèle symétrique (ou SMP pour Symmetric Multi-Processor). Des approches innovantes pour le décodeur H.264/AVC qui traitent des composantes de couleur et des blocs de l’image en parallèle sont proposées et expérimentées
Parallel computing is currently the dominating architecture in embedded systems. Concurrency improves the performance of the system rather without increasing the clock speed which affects the power consumption of the system. However, concurrency needs to be exploited in order to improve the system performance in different applications environments. Multimedia applications (real-Time conversational services such as video conferencing, video phone, etc.) have many new features that require complex computations compared to previous video coding standards. These applications have a challenging workload for future multiprocessors. Exploiting parallelism in multimedia applications can be done at data and functional levels or using different instruction sets and architectures. In this research, we design new parallel algorithms and mapping methodologies in order to exploit the natural existence of parallelism in multimedia applications, specifically the H.264/AVC video decoder. We mainly target symmetric shared-Memory multiprocessors (SMPs) for embedded devices such as ARM Cortex-A9 multicore chips. We evaluate our novel parallel algorithms of the H.264/AVC video decoder on different levels: memory load, energy consumption, and execution time
APA, Harvard, Vancouver, ISO, and other styles
24

Concolato, Cyril. "Descriptions de scènes multimédia : représentations et optimisations." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003480.

Full text
Abstract:
Avec les progrès technologiques en matière de débits disponibles et la diversification des média disponibles, l'enjeu est maintenant de diffuser aux utilisateurs des médias de qualité dans une présentation cohérente, attractive et interactive, qu'elle soit destinée au monde de la télévision numérique, de l'Internet ou de la téléphonie mobile. Les descriptions de scènes multimédia tentent de répondre à ce pari. Le pari consiste en effet à développer des technologies permettant la diffusion et la présentation de contenu multimédia riche, animé, interactif dans des environnements aux contraintes multiples. Il faut des technologies suffisamment simples pour être intégrées dans des terminaux à faible coût de revient, mais également suffisamment attractives pour attirer de nouveaux consommateurs. Ensuite, même si les débits augmentent et les techniques de compression s'améliorent, la plus grande partie des "tuyaux" est encore occupée par les média traditionnels (audio, vidéo). Il faut donc que ces nouvelles technologies n'occupent pas trop de bande passante. Enfin, pour qu'elles mènent à de nouveaux usages, il faut que les créateurs de contenu se les approprient et pour cela, il faut que les présentations multimédia soient faciles à créer, quel que soit le scénario d'utilisation. Cette thèse a pour objectif dans un premier temps de mener une réflexion sur les différentes représentations de scènes multimédias existantes et d'en proposer une synthèse. Cette synthèse propose une vue générale sur les langages, les formats de représentation des descriptions de scènes ainsi que sur les techniques de codage et les traitements appliqués aux scènes multimédia. Elle présente, en particulier, les problématiques liées à l'animation, la compression, l'interactivité, la diffusion et finalement à la présentation. Dans un second temps, elle propose des améliorations aux solutions existantes. Ces propositions sont doubles. Tout d'abord, cette thèse propose d'un ensemble de méthodes pour permettre la représentation efficace de scènes multimédia fortement animées, notamment pour les formats de représentations MPEG-4 BIFS, W3C SVG et MPEG-4 LASeR, et avec la prise en compte des contraintes de la diffusion sur téléphone mobile. Ensuite, cette thèse propose une architecture et une implémentation innovante d'un lecteur de scènes permettant la lecture de contenus multimédia sur terminaux contraints grâce au respect d'un compromis entre consommation mémoire et rapidité d'exécution. Cette thèse se conclut, après avoir rappelé les contraintes du monde mobile, par une synthèse des choix technologiques à faire, dans la vaste bibliothèque d'outils disponibles dans le domaine des descriptions de scènes, pour concevoir un service multimédia pour mobiles.
APA, Harvard, Vancouver, ISO, and other styles
25

Hamdoun, Zouheir. "Optimisation de structures composites trouées : Défauts de percage-comportement en fatigue." Paris, ENSAM, 2004. http://www.theses.fr/2004ENAM0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Payan, Frédéric. "Optimisation du compromis débit/distorsion pour la compression géométrique de maillages surfaciques triangulaires." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00011445.

Full text
Abstract:
les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage polygonal. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction du débit. Le but de l'allocation est de minimiser la distance surface-surface entre le maillage d'entrée et le maillage quantifié en fonction d'un débit de consigne. Cette distance qui traduit la différence géométrique entre deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients d'ondelettes
géométriques permettent l'utilisation de modèles théoriques pour le
débit et la distorsion des sous-bandes de coefficients. Finalement,
nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme
proposé donne de meilleurs résultats que toutes les méthodes de l'état de l'art.
APA, Harvard, Vancouver, ISO, and other styles
27

Taktak-Jama, Sanaa. "Contribution a l'etude du comportement en compression de poudres et de leurs melanges : optimisation de leur aptitude a la compression." Lille 2, 1997. http://www.theses.fr/1997LIL2P267.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Brown, Alexander Findlay. "Optimisation and control of muscular forces to maintain optimal compression loading in the femur." Thesis, University of Hull, 2014. http://hydra.hull.ac.uk/resources/hull:12280.

Full text
Abstract:
The aims of this study were to investigate the feasibility of maintaining compression in the femur as the dominant state of loading and to explore the impact of changes to the musculoskeletal system on this loading regime. The literature provides a wealth of evidence for the adaptation of bone to its mechanical environment. There is a long standing theory that bone is loaded primarily in compression during routine activities and that this is achieved by coordinated muscle activity. This study employed a multibody dynamics musculoskeletal model that compared optimisations of muscle loading with, and without, enforced compression in the shaft of the femur. The purpose of these optimisation studies was not to accurately predict patterns of muscle activation in vivo, but to comparatively assess the feasibility and cost of maintaining compression in the femur. The results showed that compression can be maintained in the femur throughout gait by coordinated muscle activity. Loading the shaft of the femur in compression causes a reduction in peak bone stresses. Some increased difficulty in maintaining compressive loading was associated with reduced muscle forces and degraded motor control. These results offer insight into possible mechanisms affecting osteoporosis through incorrect mechanical loading and invite further research.
APA, Harvard, Vancouver, ISO, and other styles
29

Chekaf, Mustapha. "Capacité de la mémoire de travail et son optimisation par la compression de l'information." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCC010/document.

Full text
Abstract:
Les tâches d’empan simples sont classiquement utilisées pour évaluer la mémoire à court terme, tandis que les tâches d’empan complexes sont généralement considérées comme spécifiques de la mémoire de travail. Par construction, les tâches d’empan complexes étant plus difficiles,en raison de l’utilisation d’une tâche concurrente, l’empan moyen est généralement plus faible (4 ± 1 items) que dans les tâches d’empan simples (7 ± 2 items). Une raison possible de cet écart est que sans tâche concurrente, les participants peuvent tirer profit du temps libre entre les stimuli pour détecter et recoder des régularités présentes dans la série de stimuli afin de regrouper les stimuli en 4 ± 1 chunks. Notre hypothèse principale est que la compression de l’information en mémoire immédiate est un indicateur pertinent pour étudier la relation entre la capacité de mémoire immédiate et l’intelligence fluide. L’idée est que les deux dépendent de la qualité du traitement de l’information, autrement dit, selon nos hypothèses, d’une interaction entre traitement et stockage. Nous avons développé plusieurs tâches de mesure d’empan de chunks dans lesquelles la compressibilité de l’information a été estimée en utilisant différentes mesures de complexité algorithmique. Les résultats ont montré que la compressibilité peut être utilisée pour prédire la performance en mémoire de travail, et que la capacité à compresser l’information est un bon prédicteur de l’intelligence fluide. Nous concluons que la capacité à compresser l’information en mémoire de travail est la raison pour laquelle à la fois traitement et stockage de l’information sont liés à l’intelligence
Simple span tasks are tasks commonly used to measure short-term memory, while complex span tasks are usually considered typical measures of working memory. Because complex span tasks were designed to create a concurrent task, the average span is usually lower (4 ± 1items) than in simple span tasks (7±2 items). One possible reason for measuring higher spansduring simple span tasks is that participants can take profit of the spare time between the stimuli to detect, and recode regularities in the stimulus series (in the absence of a concurrent task), and such regularities can be used to pack a few stimuli into 4 ± 1 chunks. Our main hypothesis was that information compression in immediate memory is an excellent indicator for studying the relationship between immediate-memory capacity and fluid intelligence. The idea is that both depend on the efficiency of information processing, and more precisely, on the interaction between storage and processing. We developed various span tasks measuringa chunking capacity, in which compressibility of memoranda was estimated using different algorithmic complexity metrics. The results showed that compressibility can be used to predictworking-memory performance, and that fluid intelligence is well predicted by the ability to compress information.We conclude that the ability to compress information in working memoryis the reason why both manipulation and retention of information are linked to intelligence
APA, Harvard, Vancouver, ISO, and other styles
30

Guillotel, Philippe. "De l'optimisation globale à l'optimisation locale psycho-visuelle en codage vidéo." Rennes 1, 2012. http://www.theses.fr/2012REN1S009.

Full text
Abstract:
Le codage est un maillon essentiel de la chaîne de production-distribution-rendu vidéo. Il détermine la qualité perçue par l'observateur et participe à l'appréciation globale de la qualité d'expérience (ou QoE). Un codeur vidéo est un système complexe qui met en œuvre de nombreux aspects et nécessite un savoir faire spécifique pour spécifier le bon algorithme de codage en fonction des contraintes applicatives. Ce travail parcourt les principaux points à considérer, propose des solutions innovantes et montre leurs efficacités. La première partie est une introduction au codage vidéo et aux formats d'images avec quelques rappels des principes généraux nécessaires à la compréhension de ce mémoire. Les notions d'échantillonnage spatial et temporel et les bases de la colorimétrie en vidéo sont rappelées, pour présenter ensuite le codage proprement dit. Les différents mécanismes utilisés sont présentés, ainsi que les principaux standards de codage pertinents au regard de ce travail. L'impact des différents formats vidéo sur le codage est aussi abordé pour démontrer que le format progressif présente de nombreux intérêts, mais n'est pas encore largement utilisé du fait de la compatibilité requise avec l'existant. Enfin l'importance de connaître le contexte applicatif est discutée, en particulier dans le cadre de codage adapté aux formats vidéo de très hautes qualités utilisés en production professionnelle. La deuxième partie est consacrée aux algorithmes globaux d'optimisation basés complexité-distorsion et débit-distorsion, où la distorsion est principalement la minimisation de la différence mathématique entre le signal décodé et l'original. Un premier chapitre aborde l'adéquation de l'algorithme avec la plate-forme de codage cible. Dans ce mémoire la cible sera un circuit intégré considéré aujourd'hui comme le plus performant de sa génération. Un focus particulier est effectué dans les autres chapitres sur les techniques, fondamentales en codage vidéo, d'adaptation du codage au signal, au canal et à l'utilisateur. La troisième partie aborde une voie de recherche qui semble gagner un certain intérêt dans le monde académique, celui du codage perceptuel local. Après l'introduction des notions de modélisation du système visuel humain, de métriques de distorsion et d'aspect subjectifs, différentes recherches sont présentées. Elles introduisent l'aspect d'adaptation locale du codage dans l'image basée sur la perception. Autrement dit comment chaque région d'une image peut-elle être codée pour subjectivement donner une meilleure impression. C'est une voie assez récente en codage mais elle ouvre de nouvelles perspectives non encore complètement explorées. Enfin des extensions ou des perspectives complémentaires aux travaux de ce mémoire sont proposées dans la conclusion
Video coding is an essential part of the production-delivery-rendering video chain. The efficiency of the coding scheme gives the quality perceived by the final user and contributes to the evaluation of the quality of experience (or QoE). A video encoder is a complex system with many different aspects requiring a specific know-how to specify the right algorithm for the considered application. This work deals with the main topics to be considered, proposes innovative solutions and discusses their respective performances. The first part is an introduction to the coding of video signals with some remainders on the general principles necessary to understand this thesis. Spatial sampling, temporal sampling and colorimetry theories are first discussed, and the encoding is introduced just after. The different tools and mechanisms are described, as well as the main existing standards relevant regarding this work. The video formats impact is discussed to demonstrate the interest of the progressive scanning format, even if it is not yet largely diploid because of the necessary backward compatibility. Finally, we demonstrate the importance of knowing the applicative context in a particular case, the professional video production where very high quality video is required. The second part is dedicated to the global optimisation issues based on both the complexity-distortion and rate-distortion functions, where the distortion is mainly the mathematical difference between the original and decoded signals. The first chapter introduces the adequacy between the algorithm and the considered platform. We discuss here a specific IC considered today as one of the most efficient IC of its generation. A particular focus is proposed in the other chapters regarding adaptive coding techniques for the signal, channel or user. The third part introduces a new research area recently attracting a lot of attention from the academic researchers, the local perceptual coding. After an introduction of the human visual system, distortion metrics and other subjective aspects, different research studies are presented. It is proposed to use local adaptation based on the human perception. In other words we propose to study how each picture area can be encoded to provide a better subjective quality. It is a recent research topic but it opens new perspectives not yet fully explored. Finally, extensions and perspectives are proposed in the conclusion to complete this work
APA, Harvard, Vancouver, ISO, and other styles
31

Mory, Cyril. "Tomographie cardiaque en angiographie rotationnelle." Phd thesis, Université Claude Bernard - Lyon I, 2014. http://tel.archives-ouvertes.fr/tel-00985728.

Full text
Abstract:
Un C-arm est un appareil d'imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l'imagerie des organes statiques. Cependant son extension à l'imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l'angiographie rotationnelle pour l'analyse du myocarde chez l'homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l'état de l'art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l'ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l'ECG par déconvolution. Elle permet d'obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l'angiographie rotationnelle cardiaque chez l'homme. Deux méthodes de reconstruction 3D basées sur l'échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l'état de l'art actuel, appelé " Prior Image Constrained Compressed Sensing " (PICCS). Elles permettent d'obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l'une de l'autre, mais elles s'appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l'aorte, et imposer une solution régulière dans l'espace et dans le temps. L'une de ces méthodes génère des résultats meilleurs, c'est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS
APA, Harvard, Vancouver, ISO, and other styles
32

Thiesse, Jean-Marc. "Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion." Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00719058.

Full text
Abstract:
Cette thèse est dédiée à l'amélioration des performances de compression vidéo. Deux types d'approches, conventionnelle et en rupture, sont explorées afin de proposer des méthodes efficaces de codage Intra et Inter pour les futurs standards de compression. Deux outils sont étudiés pour la première approche. Tout d'abord, des indices de signalisations sont habilement traités par une technique issue du tatouage permettant de les masquer dans les résiduels de luminance et de chrominance de façon optimale selon le compromis débit-distorsion. La forte redondance dans le mouvement est ensuite exploitée pour améliorer le codage des vecteurs de mouvement. Après observation des précédents vecteurs utilisés, un fin pronostic permet de déterminer les vecteurs résiduels à privilégier lors d'une troisième étape de modification de la distribution des résiduels. 90% des vecteurs codés sont ainsi pronostiqués, ce qui permet une nette réduction de leur coût. L'approche en rupture vient de la constatation que H.264/AVC et son successeur HEVC sont basés sur un schéma prédictif multipliant les choix de codage, les améliorations passent alors par un meilleur codage de la texture à l'aide d'une compétition accrue. De tels schémas étant bornés par la signalisation engendrée, il est alors nécessaire de transférer des décisions au niveau du décodeur. Une approche basée sur la détermination conjointe au codeur et au décodeur de paramètres de codage à l'aide de partitions causales et ainsi proposée et appliquée aux modes de prédiction Intra et à la théorie émergente de l'échantillonnage compressé. Des performances encourageantes sont reportées et confirment l'intérêt d'une telle solution innovante.
APA, Harvard, Vancouver, ISO, and other styles
33

Ozaktas, Haluk. "Compression de code et optimisation multicritère des systèmes embarqués dans un contexte temps réel strict." Paris 6, 2011. http://www.theses.fr/2011PA066376.

Full text
Abstract:
Pour des raisons économiques, énergétiques et/ou ergonomiques, les systèmes embarqués sont soumis à de nombreuses contraintes comme être performants en moyenne ou dans le pire cas, avoir une consommation d'énergie et une mémoire de taille aussi réduite que possible. En conséquence, les systèmes embarqués ont plusieurs critères à optimiser lors de leur conception. Ce travail de thèse s'intéresse à la mise au point de stratégies d'optimisation de code multicritère pour des applications embarquées potentiellement temps réel strict. Dans un premier temps, un schéma de compression de code a été développé et mis en place pour optimiser principalement la taille de code. Ce schéma utilise une décompression dans le pipeline du processeur pour pouvoir optimiser aussi la consommation d’énergie et la performance moyenne ou pire cas. L'analyse des effets du schéma proposé a montré qu’il peut simultanément optimiser, ou offrir de bons compromis entre, plusieurs critères. Dans un deuxième temps, une plateforme d’optimisation multicritère a été mise en œuvre pour appliquer simultanément plusieurs transformations de code ciblant différents critères. Cette plateforme utilise une approche itérative pour trouver les points de compromis entre les critères d’intérêt. Finalement, afin de mettre au point des stratégies d'optimisation multicritère, nous avons proposé d'utiliser une méthode de comparaison statistique de l'efficacité des algorithmes de recherche à trouver rapidement de bonnes optimisations. Nous avons appliqué cette méthode à différents algorithmes de recherche dans plusieurs cas d'optimisation.
APA, Harvard, Vancouver, ISO, and other styles
34

Saeung, Somchai. "Contribution à l'étude des machines frigorifiques à adsorption-compression." Nancy 1, 2006. http://docnum.univ-lorraine.fr/prive/SCD_T_2006_0134_SAEUNG.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Thiesse, Jean-Marc. "Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion." Nice, 2012. http://www.theses.fr/2012NICE4058.

Full text
Abstract:
Cette thèse est dédiée à l’amélioration des performances de compression vidéo. Deux types d’approches, conventionnelle et en rupture, sont explorées afin de proposer des méthodes efficaces de codage Intra et Inter pour les futurs standards de compression. Deux outils sont étudiés pour la première approche. Tout d’abord, des indices de signalisations sont habilement traités par une technique issue du tatouage permettant de les masquer dans les résiduels de luminance et de chrominance de façon optimale selon le compromis débit-distorsion. La forte redondance dans le mouvement est ensuite exploitée pour améliorer le codage des vecteurs de mouvement. Après observation des précédents vecteurs utilisés, un fin pronostic permet de déterminer les vecteurs résiduels à privilégier lors d’une troisième étape de modification de la distribution des résiduels. 90% des vecteurs codés sont ainsi pronostiqués, ce qui permet une nette réduction de leur coût. L’approche en rupture vient de la constatation que H. 264/AVC et son successeur HEVC sont basés sur un schéma prédictif multipliant les choix de codage, les améliorations passent alors par un meilleur codage de la texture à l’aide d’une compétition accrue. De tels schémas étant bornés par la signalisation engendrée, il est alors nécessaire de transférer des décisions au niveau du décodeur. Une approche basée sur la détermination conjointe au codeur et au décodeur de paramètres de codage à l’aide de partitions causales et ainsi proposée et appliquée aux modes de prédiction Intra et à la théorie émergente de l’échantillonnage compressé. Des performances encourageantes sont reportées et confirment l’intérêt d’une telle solution innovante
This Ph. D. Thesis deals with the improvement of video compression efficiency. Both conventional and breakthrough approaches are investigated in order to propose efficient methods for Intra and Inter coding dedicated to next generations video coding standards. Two tools are studied for the conventional approach. First, syntax elements are cleverly transmitted using a data hiding based method which allows embedding indices into the luminance and chrominance residuals in an optimal way, rate-distortion wise. Secondly, the large motion redundancies are exploited to improve the motion vectors coding. After a statistical analysis of the previously used vectors, an accurate forecast is performed to favor some vector residuals during a last step which modifies the original residual distribution. 90% of the coded vectors are efficiently forecasted by this method which helps to significantly reduce their coding cost. The breakthrough approach comes from the observation of the H. 264/AVC standard and its successor HEVC which are based on a predictive scheme with multiple coding choices, consequently future improvements shall improve texture by extensively using the competition between many coding modes. However, such schemes are bounded by the cost generated by the signaling flags and therefore it is required to transfer some decisions to the decoder side. A framework based on the determination of encoding parameters at both encoder and decoder side is consequently proposed and applied to Intra prediction modes on the one hand, and to the emerging theory of compressed sensing on the other hand. Promising results are reported and confirm the potential of such an innovative solution
APA, Harvard, Vancouver, ISO, and other styles
36

Carlavan, Mikaël. "Optimization of the compression/restoration chain for satellite images." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847182.

Full text
Abstract:
The subject of this work is image coding and restoration in the context of satellite imaging. Regardless of recent developments in image restoration techniques and embedded compression algorithms, the reconstructed image still suffers from coding artifacts making its quality evaluation difficult. The objective of the thesis is to improve the quality of the final image with the study of the optimal structure of decoding and restoration regarding to the properties of the acquisition and compression processes. More essentially, the aim of this work is to propose a reliable technique to address the optimal decoding-deconvolution-denoising problem in the objective of global optimization of the compression/restoration chain. The thesis is organized in three parts. The first part is a general introduction to the problematic addressed in this work. We then review a state-of-the-art of restoration and compression techniques for satellite imaging and we describe the current imaging chain used by the French Space Agency as this is the focus of the thesis. The second part is concerned with the global optimization of the satellite imaging chain. We propose an approach to estimate the theoretical distortion of the complete chain and we present, for three different configurations of coding/restoration, an algorithm to perform its minimization. Our second contribution is also focused on the study of the global chain but is more aimed to optimize the visual quality of the final image. We present numerical methods to improve the quality of the reconstructed image and we propose a novel imaging chain based on the image quality assessment results of these techniques. The last part of the thesis introduces a satellite imaging chain based on a new sampling approach. This approach is interesting in the context of satellite imaging as it allows transferring all the difficulties to the on-ground decoder. We recall the main theoretical results of this sampling technique and we present a satellite imaging chain based on this framework. We propose an algorithm to solve the reconstruction problem and we conclude by comparing the proposed chain to the one currently used by the CNES.
APA, Harvard, Vancouver, ISO, and other styles
37

O'Doherty, Bethan. "Optimisation of intermittent compression for the improvement of vascular inflow and outflow proximal to a wound site." Thesis, Cardiff University, 2008. http://orca.cf.ac.uk/54776/.

Full text
Abstract:
Ulceration of the lower limb is a chronic, debilitating condition affecting an increasing percentage of the adult and elderly populations. Conservative treatment options are limited, and generally result in surgery or amputation. The purpose of this research was to investigate the feasibility of using intermittent pneumatic compression for the treatment and management of chronic non-healing leg ulcers. The aim was to develop a system capable of improving the healing of leg ulcers of varying causes through improving distal blood flow whilst also being comfortable and easy to use, to encourage patient compliance. Using Doppler ultrasound, it was demonstrated that intermittent pneumatic compression was capable of producing a distal blood flow response in the limb of a healthy volunteer. Further investigations examined the effect on this distal response of altering the cuff design, pressure and cycle duration in order to determine the optimal compression regime for enhancing the distal circulation the ultimate objective being to use intermittent pneumatic compression to improve the healing of chronic leg ulcers by improving distal blood flow. The optimal sequence involved a 3-chamber thigh cuff, using a pressure of 60mmHg and a short sequential cycle which was operated within a 2 minute on and off sequence. The optimal system was investigated for distal blood flow effects in a group of 20 healthy volunteers, and 14 patients with leg ulcers of differing aetiologies. A distal hyperaemic response was achieved during the 2 minutes without compression, consequent upon changes included in the venous circulation during the 2 minutes of compression. A greater response was detected in the patient group as compared with the healthy volunteer group. A 3 month case study of the clinical effects of the new system resulted in the complete healing of the patients long standing non-healing leg ulcer. Further case studies are required to determine the significance of this finding.
APA, Harvard, Vancouver, ISO, and other styles
38

BERTRAND, JEAN-FRANCOIS. "Codage d'images par segmentation et separation en deux composantes : optimisation des performances d'un systeme de codage d'images monochromes." Rennes, INSA, 1987. http://www.theses.fr/1987ISAR0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Touati, Nadjah. "Optimisation des formes d'ondes d'un radar d'aide à la conduite automobile, robustes vis-à-vis d'environnements électromagnétiques dégradés." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0031/document.

Full text
Abstract:
Divers radars sont développés pour des besoins d’aide à la conduite automobile de sécurité mais aussi de confort. Ils ont pour but de détecter la présence d’obstacles routiers afin d’éviter d’éventuelles collisions. La demande actuelle en termes de capteurs radars pour l’automobile connaît une croissance importante et les technologies employées doivent garantir de bonnes performances dans un environnement dégradé par les signaux interférents des autres utilisateurs. Dans cette thèse, nous nous intéressons au développement d’un système radar performant en tout lieu et en particulier dans un contexte multi-utilisateurs. A ce propos, nous proposons de nouvelles formes d’ondes qui se basent sur la combinaison des codes fréquentiels de Costas et d’autres techniques de compression d’impulsion en exploitant les signaux de Costas modifiés. La conception adoptée permet, grâce à la diversité introduite, de synthétiser un nombre important de formes d’ondes. Nous avons, ensuite, exploité deux approches d’estimation des paramètres des cibles. La première, plutôt classique, se base sur le traitement Doppler dans un train d’impulsions cohérent. La deuxième, récente dans le domaine automobile, se base sur la technique dite de « Compressed Sensing ». Une adaptation de ces algorithmes pour les signaux proposés a été discutée dans des environnements bruités et multi-cibles. L’ensemble de ces travaux contribue à explorer de nouvelles formes d’ondes, autres que celles utilisées dans les radars actuels et à proposer un traitement innovant en réception, adapté aux radars en général et à l’automobile en particulier
Several driver assistance radars are developed for security and comfort requirements. Their goal is among others to detect the presence of obstacles for collision avoidance. The current demand in terms of automotive radar sensors experience a significant growth and the technologies being employed must ensure good performances especially in an environment degraded by interfering signals of other users. In this thesis, we are interested in developing a radar system which is effective in all situations especially in a multi-user context. For this purpose, we propose novel radar waveforms based on the combination of frequency hopping Costas codes and other pulse compression techniques, using modified Costas signals. The design approach allows to synthesize a significant number of waveforms, thanks to the high diversity introduced. Afterwards, we have exploited two estimation of target parameters approaches. The first one, quite classic, is based on Doppler processing in a coherent pulse train. The second one, recent in the automotive field , is based on the Compressed sensing techniques. An adaptation of these algorithms to proposed signals is discussed in noisy and multi-target environments. All these works contribute in one hand to explore novel radar waveforms, complement to those currently used in automotive radars and in another hand to propose an innovative processing at the receiver level, suited to radar applications in general and automotive ones in particular
APA, Harvard, Vancouver, ISO, and other styles
40

Khennich, Mohammed. "Optimisation thermodynamique d’un procédé solaire utilisant un système de réfrigération à éjecto-compression pour la production du froid." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9756.

Full text
Abstract:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.
APA, Harvard, Vancouver, ISO, and other styles
41

Di, Battista Marie. "Optimisation d'une formulation par compression directe : application à deux formules de comprimés effervescents destinés à la voie orale." Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Chernoglazov, Alexander Igorevich. "Improving Visualisation of Large Multi-Variate Datasets: New Hardware-Based Compression Algorithms and Rendering Techniques." Thesis, University of Canterbury. Computer Science and Software Engineering, 2012. http://hdl.handle.net/10092/7004.

Full text
Abstract:
Spectral computed tomography (CT) is a novel medical imaging technique that involves simultaneously counting photons at several energy levels of the x-ray spectrum to obtain a single multi-variate dataset. Visualisation of such data poses significant challenges due its extremely large size and the need for interactive performance for scientific and medical end-users. This thesis explores the properties of spectral CT datasets and presents two algorithms for GPU-accelerated real-time rendering from compressed spectral CT data formats. In addition, we describe an optimised implementation of a volume raycasting algorithm on modern GPU hardware, tailored to the visualisation of spectral CT data.
APA, Harvard, Vancouver, ISO, and other styles
43

Delaunay, Xavier. "Compression d'images satellite par post-transformées dans le domaine ondelettes." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7746/1/delaunay.pdf.

Full text
Abstract:
Le CNES s'intéresse aux nouvelles transformées pour accroître les performances de la compression d'images à bord des satellites d'observation de la Terre. Dans cette thèse nous étudions les post-transformées. Elles sont appliquées après la transformée en ondelettes. Chaque bloc de coefficients d'ondelettes est de nouveau transformé dans une base sélectionnée dans un dictionnaire par minimisation d'un critère débit-distorsion. Nous commençons par mettre en évidence des dépendances entre coefficients d'ondelettes qui limitent les performances en compression. Nous étudions ensuite la transformée en bandelettes par blocs, qui est à l'origine des post-transformées, et nous en optimisons les paramètres pour la compression d'images satellite. En particulier nous adaptons la méthode d'optimisation de Shoham et Gersho à la sélection de la meilleure base de bandelettes. Nous en déduisons une formule du multiplicateur de Lagrange optimal quiintervient dans le critère de sélection. Dans un deuxième temps, nous analysons les dépendances entre coefficients d'ondelettes qui ne sont pas prises en comptes par les bandelettes et nous définissons de nouvelles bases de post-transformées. Les bases construites par ACP minimisent les corrélations entre coefficients post-transformés et compactent l'énergie de chaque bloc sur un petit nombre de coefficients. Cette propriété est exploitée lors du codage entropique. Enfin, nous modifions le critère de sélection des bases pour adapter la post-transformée à une compression progressive. Nous employons alors la post-transformée de Hadamard dans le codeur du CCSDS le tout ayant une faible complexité calculatoire.
APA, Harvard, Vancouver, ISO, and other styles
44

Dhollande, Nicolas. "Optimisation du codage HEVC par des moyens de pré-analyse et/ou pré-codage du contenu." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S113.

Full text
Abstract:
La compression vidéo HEVC standardisée en 2013 offre des gains de compression dépassant les 50% par rapport au standard de compression précédent MPEG4-AVC/H.264. Ces gains de compression se paient par une augmentation très importante de la complexité de codage. Si on ajoute à cela l’augmentation de complexité générée par l’accroissement de résolution et de fréquence image du signal vidéo d’entrée pour passer de la Haute Définition (HD) à l’Ultra Haute Définition (UHD), on comprend vite l’intérêt des techniques de réduction de complexité pour le développement de codeurs économiquement viables. En premier lieu, un effort particulier a été réalisé pour réduire la complexité des images Intra. Nous proposons une méthode d'inférence des modes de codage à partir d'un pré-codage d'une version réduite en HD de la vidéo UHD. Ensuite, nous proposons une méthode de partitionnement rapide basée sur la pré-analyse du contenu. La première méthode offre une réduction de complexité d'un facteur 3 et la deuxième, d'un facteur 6, contre une perte de compression proche de 5%. En second lieu, nous avons traité le codage des images Inter. En mettant en œuvre une solution d'inférence des modes de codage UHD à partir d'un pré-codage au format HD, la complexité de codage est réduite d’un facteur 3 en considérant les 2 flux produits et d’un facteur 9.2 sur le seul flux UHD, pour une perte en compression proche de 3%. Appliqué à une configuration de codage proche d'un système réellement déployé, l'apport de notre algorithme reste intéressant puisqu'il réduit la complexité de codage du flux UHD d’un facteur proche de 2 pour une perte de compression limitée à 4%. Les stratégies de réduction de complexité mises en œuvre au cours de cette thèse pour le codage Intra et Inter offrent des perspectives intéressantes pour le développement de codeurs HEVC UHD plus économes en ressources de calculs. Elles sont particulièrement adaptées au domaine de la WebTV/OTT qui prend une part croissante dans la diffusion de la vidéo et pour lequel le signal vidéo est codé à des résolutions multiples pour adresser des réseaux et des terminaux de capacités variées
The High Efficiency Video Coding (HEVC) standard was released in 2013 which reduced network bandwidth by a factor of 2 compared to the prior standard H.264/AVC. These gains are achieved by a very significant increase in the encoding complexity. Especially with the industrial demand to shift in format from High Definition (HD) to Ultra High Definition (UHD), one can understand the relevance of complexity reduction techniques to develop cost-effective encoders. In our first contribution, we attempted new strategies to reduce the encoding complexity of Intra-pictures. We proposed a method with inference rules on the coding modes from the modes obtained with pre-encoding of the UHD video down-sampled in HD. We, then, proposed a fast partitioning method based on a pre-analysis of the content. The first method reduced the complexity by a factor of 3x and the second one, by a factor of 6, with a loss of compression efficiency of 5%. As a second contribution, we adressed the Inter-pictures. By implementing inference rules in the UHD encoder, from a HD pre-encoding pass, the encoding complexity is reduced by a factor of 3x when both HD and UHD encodings are considered, and by 9.2x on just the UHD encoding, with a loss of compression efficiency of 3%. Combined with an encoding configuration imitating a real system, our approach reduces the complexity by a factor of close to 2x with 4% of loss. These strategies built during this thesis offer encouraging prospects for implementation of low complexity HEVC UHD encoders. They are fully adapted to the WebTV/OTT segment that is playing a growing part in the video delivery, in which the video signal is encoded with different resolution to reach heterogeneous devices and network capacities
APA, Harvard, Vancouver, ISO, and other styles
45

El, Gueddari Loubna. "Proximal structured sparsity regularization for online reconstruction in high-resolution accelerated Magnetic Resonance imaging." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS573.

Full text
Abstract:
L'imagerie par résonance magnétique (IRM) est la technique d'imagerie médicale de référence pour sonder in vivo et non invasivement les tissus mous du corps humain, en particulier le cerveau.L'amélioration de la résolution de l'IRM en un temps d'acquisition standard (400µm isotrope en 15 minutes) permettrait aux médecins d'améliorer considérablement leur diagnostic et le suivi des patients. Cependant, le temps d'acquisition en IRM reste long. Pour réduire ce temps, la récente théorie de l'échantillonnage comprimée (EC) a révolutionné la façon d'acquérir des données dans plusieurs domaines dont l'IRM en surmontant le théorème de Shannon-Nyquist. Avec l'EC, les données peuvent alors être massivement sous-échantillonnées tout en assurant des conditions optimales de reconstruction des images.Dans ce contexte, les thèses de doctorat précédemment soutenue au sein du laboratoire ont été consacrées à la conception et à la mise en oeuvre de scénarios d'acquisition physiquement plausibles pour accélérer l'acquisitions. Un nouvel algorithme d'optimisation pour la conception de trajectoire non cartésienne avancée appelée SPARKLING pour Spreading Projection Algorithm for Rapid K-space samplING en est né. Les trajectoires SPARKLING générées ont conduit à des facteurs d'accélération allant jusqu'à 20 en 2D et 70 pour les acquisitions 3D sur des images à haute résolution pondérées en T*₂ acquises à 7 Tesla. Ces accélérations n'étaient accessibles que grâce au rapport signal/bruit d'entrée élevé fourni par l'utilisation de bobines de réception multi-canaux (IRMp). Cependant, ces résultats ont été obtenus au détriment d'une reconstruction longue et complexe. Dans cette thèse, l'objectif est de proposer une nouvelle approche de reconstruction en ligne d'images acquies par IRMp non cartésiennes. Pour atteindre cet objectif, nous nous appuyons sur une approche en ligne où reconstruction et acquisition s'entremèlent. Par conséquent, la reconstruction débute avant la fin de l'acquisition et un résultat partiel est délivré au cours de l'examen. L'ensemble du pipeline est compatible avec une implémentation réelle à travers l'interface Gadgetron pour produire les images reconstruites à la console du scanner.Ainsi, après avoir exposé la théorie de l'échantillonage comprimé, nous présentons l'état de l'art de la méthode dédiée à la reconstruction en imagerie multi-canaux. En particulier, nous nous concentrerons d'abord sur les méthodes d'autocalibration qui présentent l'avantage d'être adaptées à l'échantillonnage non cartésien et nous proposons une méthode simple mais efficace pour estimer le profil de sensibilité des différents cannaux. Cependant, en raison de leur dépendance au profil de sensibilité, ces méthodes ne sont pas adapatable à la reconstruction en ligne. Par conséquent, la deuxième partie se concentre sur la suppression des ces profils et celà grâce à l'utilisation de norme mixte promouvant une parcimonie structurée. Ensuite, nous adaptons différentes réularization basées sur la parcimonie structurée pour reconstruire ces images fortement corrélées. Enfin, la méthode retenue sera appliquée à l'imagerie en ligne
Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 400µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. However the scanning time in MRI remains long, especially in the high resolution context. To reduce this time, the recent Compressed Sensing (CS) theory has revolutionized the way of acquiring data in several fields including MRI by overcoming the Shannon-Nyquist theorem. Using CS, data can then be massively under-sampled while ensuring conditions for optimal image recovery.In this context, previous Ph.D. thesis in the laboratory were dedicated to the design and implementation of physically plausible acquisition scenarios to accelerate the scan. Those projects deliver new optimization algorithm for the design of advanced non-Cartesian trajectory called SPARKLING: Spreading Projection Algorithm for Rapid K-space samplING. The generated SPARKLING trajectories led to acceleration factors up to 20 in 2D and 60 for 3D-acquisitions on highly resolved T₂* weighted images acquired at 7~Tesla.Those accelerations were only accessible thanks to the high input Signal-to-Noise Ratio delivered by the usage of multi-channel reception coils. However, those results are coming at a price of long and complex reconstruction.In this thesis, the objective is to propose an online approach for non-Cartesian multi-channel MR image reconstruction. To achieve this goal we rely on an online approach where the reconstruction starts from incomplete data.Hence acquisition and reconstruction are interleaved, and partial feedback is given during the scan. After exposing the Compressed Sensing theory, we present state-of the art method dedicated to multi-channel coil reconstruction. In particular, we will first focus on self-calibrating methods that presents the advantage to be adapted to non-Cartesian sampling and we propose a simple yet efficient method to estimate the coil sensitivity profile.However, owing to its dependence to user-defined parameters, this two-step approach (extraction of sensitivity maps and then image reconstruction) is not compatible with the timing constraints associated with online reconstruction. Then we studied the case of calibration-less reconstruction methods and splits them into two categories, the k-space based and the domain-based. While the k-space calibration-less method are sub-optimal for non-Cartesian reconstruction, due to the gridding procedure, we will retain the domain-based calibration-less reconstruction and prove theirs for online purposes. Hence in the second part, we first prove the advantage of mixed norm to improve the recovery guarantee in the pMRI setting. Then we studied the impact of structured sparse induced norm on the reconstruction multi-channel purposes, where then and adapt different penalty based on structured sparsity to handle those highly correlated images. Finally, the retained method will be applied to online purposes. The entire pipeline, is compatible with an implementation through the Gadgetron pipeline to deliver the reconstruction at the scanner console
APA, Harvard, Vancouver, ISO, and other styles
46

Luo, Xiaobo. "Process modelling, simulation and optimisation of natural gas combined cycle power plant integrated with carbon capture, compression and transport." Thesis, University of Hull, 2016. http://hydra.hull.ac.uk/resources/hull:14005.

Full text
Abstract:
Reducing CO₂ emissions from fossil fuel-fired power plants is a significant challenge, technically and economically. Post-combustion carbon capture (PCC) using amine solvents is widely regarded as the most promising technology that can be commercially deployed for carbon capture from fossil fuel-fired power plants. However, for its application at full commercial scale, the main barrier is high cost increment of the electricity due to high capital costs and significant energy penalty. This thesis presents the studies on optimal design and operation of Monoethanolamine (MEA)-based PCC process and the integrated system with natural gas combined cycle (NGCC) power plant through modelling, simulation and optimisation, with the aim to reduce the cost of PCC commercial deployment for NGCC power plants. The accuracy of optimisation depends on good predictions of both process model and economic model. For the process modelling, the philosophy with its framework was analysed for this reactive absorption (RA) process. Then the model was developed and validated at three stages. In the first stage, the predictions of thermodynamic modelling were compared with experimental data of CO₂ solubility in aqueous MEA solutions. The results show the combination of correlations used in this study has higher accuracy than other three key published contributions. Then key physical properties of MEA-H₂O-CO₂ system were also validated with experimental data from different publications. Lastly, a steady state process model was developed in Aspen Plus® with rate-based mass transfer and kinetic-controlled reactions. The process model was validated against comprehensive pilot plant experiment data, in terms of absorption efficiency and thermal performance of the integrated system. The cost model was developed based on the major equipment costs provided by vendors after detailed engineering design in a benchmark report. The uncertainty of this method could be in the range of from −15% to 20%, instead of other empirical methods with uncertainty of from −30% to 50%. The cost model was integrated into the process model by coding Fortran subroutine in Aspen Plus®. Using this integrated model, the optimisation studies were carried out for the PCC process only. The impact of key variables variation was also analysed. Subsequently, the scope of this study was extended to cover different sections of the integrated system including a 453MWe NGCC power plant, PCC process, CO₂ compression trains and CO₂ transport pipeline network. For the integration of NGCC power plant with PCC process and CO₂ compression, exhaust gas recirculation (EGR) technology was investigated and showed significant economic benefit. A specific supersonic shock wave compressor was adopted for the CO₂ compression and its heat integration options with power plant and PCC process were studied. For the study on the CO₂ transport pipeline network planned in the Humber region of the UK, a steady state process model was developed using Aspen HYSYS®. The process model was integrated with Aspen Process Economic Analyzer® (APEA), to carry out techno-economic evaluations for different options of the CO₂ compression trains and the trunk onshore\offshore pipelines respectively. The results show the optimal case has an annual saving of 22.7 M€ compared with the base case. In the end, optimal operations of NGCC power plant integrated with whole carbon capture and storage (CCS) chain under different market conditions were studied. Levelised cost of electricity (LCOE) is formulated as the objective function. The optimal operations were investigated for different carbon capture level under different carbon price, fuel price and CO₂ transport and storage (T&S) price. The results show that carbon price needs to be over €100/ton CO₂ to justify the total cost of carbon capture from the NGCC power plant and needs to be €120/ton CO₂ to drive carbon capture level at 90%. The results outline the economic profile of operating an NGCC power plant integrated with CCS chain. It could help power plants operators and relevant government organizations for decision makings on the commercial deployment of solvent-based PCC process for power plans.
APA, Harvard, Vancouver, ISO, and other styles
47

Raffy, Philippe. "Modelisation, optimisation et mise en oeuvre de quantificateurs bas debits pour la compression d'images utilisant une transformee en ondelettes." Nice, 1997. http://www.theses.fr/1997NICE5109.

Full text
Abstract:
Du fait de l'explosion des communications numeriques, la question de la compression est aujourd'hui cruciale dans bien des domaines en raison de l'impossibilite physique de transmettre ou de stocker des donnees trop volumineuses. L'interet croissant pour des applications exigeant une transmission en temps-reel incite au developpement d'algorithmes de compression a bas debits. Si l'enjeu est considerable, les obstacles scientifiques n'en sont pas moindres. Dans ce memoire, nous proposons des schemas de compression permettant d'apporter des solutions originales a ce probleme. Durant de nombreuses annees, les algorithmes de compression se sont bases principalement sur des methodes de quantification optimales. Nous proposons ici d'elargir ce cadre a une procedure d'optimisation conjointe quantificateur-codeur. Dans un premier temps, nous avons choisi d'associer a un quantificateur scalaire un codeur nouvelle generation appele stack-run. Ils ont ete integre dans une procedure d'allocation de debit multiresolution qui a ete developpee pour des applications bas-debits. En effet, a la difference des allocations couramment utilisees, celle-ci n'utilise pas de modeles debit-distorsion approximatifs haut-debits). Ce schema de compression montre une bonne adaptation a tous les types de source et des performances, en termes de qualite visuelle, superieures a celles de l'algorithme ezw de shapiro considere comme une reference actuellement. Dans un second temps, nous avons defini, a l'aide de la theorie markovienne, un nouveau quantificateur appele quantificateur sous contrainte spatiale. Celui-ci a permis d'accroitre encore la qualite visuelle des images comprimees. Enfin, nous avons montre que la quantification vectorielle algebrique (qva) permettait d'ameliorer les performances debit-distorsion deja bonnes du bloc qs-stack-run. Nous avons apporte des solutions precises a la modelisation du debit et de la distorsion pour ce type de quantificateurs, sans faire appel a l'hypothese contraignante haute resolution, par nature inadaptee aux bas-debits. Les resultats theoriques ont ete valides sur des images grand public aussi bien que sur des images satellites. Enfin, nous avons adapte la procedure de quantification pour des qva sous contrainte entropique. Des resultats preliminaires ont montre le bien fonde de cette approche, en termes de qualite image.
APA, Harvard, Vancouver, ISO, and other styles
48

Alaoui, Fdili Othmane. "Optimisation multicritères de la qualité de service dans les réseaux de capteurs multimédia sans fil." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0016/document.

Full text
Abstract:
Les progrès réalisés en systèmes micro-électro-mécaniques couplés avec leur convergence vers les systèmes de communication sans fil, ont permis l'émergence des réseaux de capteurs sans fil (RCSF). Les contraintes de ces réseaux font que tous les efforts soient fournis pour proposer des solutions économes en énergie. Avec les récents développements des technologies CMOS, des capteurs d'images à faible coût ont été développés. En conséquence, un nouveau dérivé des RCSF, qui sont les Réseaux de Capteurs Vidéo Sans Fil (RCVSF), a été proposé. La particularité des données vidéo ainsi que les contraintes inhérentes aux nœuds ont introduit de nouveaux défis. Dans cette thèse, nous proposons deux solutions basées sur l'approche inter-couches pour la livraison de la vidéo sur les RCVSF. La première solution propose un nouveau schéma de compression vidéo adaptatif, efficace en énergie et basé sur la norme de compression vidéo H.264/AVC. Le flux vidéo est ensuite géré par une version améliorée du protocole MMSPEED que nous proposons et notons EQBSA-MMSPEED. Les résultats des simulations montrent que la durée de vie du réseau est étendue de 33%, tout en améliorant la qualité du flux vidéo reçu de 12%. Dans la deuxième solution, nous enrichissons le schéma de compression de modèles mathématiques pour prévoir la consommation d'énergie et la distorsion de l'image lors des phases d'encodage et de transmission. Le flux vidéo est géré par un nouveau protocole de routage efficace en énergie et à fiabilité améliorée noté ERMM. Comparée à une approche basique, cette solution réalise une extension de la durée de vie du réseau de 15%, tout en améliorant la qualité du flux vidéo reçu de 35%
Thanks to the valuable advances in Micro Electro-Mechanical Systems coupled with their convergence to wireless communication systems, the Wireless Sensor Networks (WSN). In the WSN context, all the efforts are made in order to propose energy-efficient solutions. With the recent developments in CMOS technology, low-cost imaging sensors have been developed. As a result, a new derivative of the WSN, which is the Wireless Video Sensor Network (WVSN), has been proposed. The particularities of the video data as well as the inherent constraints of the nodes have introduced new challenges. In this thesis, we propose two cross-layer based solutions for video delivery over the WVSN. The first solution proposes a new energy efficient and adaptive video compression scheme dedicated to the WVSNs, based on the H.264/AVC video compression standard. The video stream is then handled by an enhanced version of MMSPEED protocol, that we propose and note EQBSA-MMSPEED. Performance evaluation shows that the lifetime of the network is extended by 33%, while improving the video quality of the received stream by 12%. In the second solution, we enrich our compression scheme with mathematical models to predict the energy consumption and the video distortion during the encoding and the transmission phases. The video stream is then handled by a novel energy efficient and improved reliability routing protocol, that we note ERMM. Compared to a basic approach, this solution is extending the network lifetime by 15%, while improving the quality of the received video stream by 35%
APA, Harvard, Vancouver, ISO, and other styles
49

Gouze, Annabelle. "Schéma lifting quinconce pour la compression d'images." Phd thesis, Nice, 2002. http://tel.archives-ouvertes.fr/tel-00460154.

Full text
Abstract:
Les travaux développés dans cette thèse portent la transformée en ondelettes 2D non-séparable appliquée dans le domaine de la compression d'images. L'implémentation en schéma lifting réduit la complexité de la transformée. Notre premier objectif consiste à factoriser un banc de filtres bidimensionnels non-séparables en schéma lifting quinconce. La solution apportée s'applique aux filtres à symétrie octogonale. Nous proposons une implémentation au fil de l'eau du schéma lifting quinconce. Les coûts de l'implémentation et le gain en mémoire et en complexité par rapport au filtrage par banc de filtres sont évalués. Le second objectif consiste à définir un schéma lifting en fonction des propriétés statistiques de l'image. Le but est de définir un schéma optimisant les performances, en adéquation avec les méthodes d'allocation de débit. Ces méthodes ont pour objectif de fournir un algorithme de compression approprié et efficace pour des images directement échantillonnées en quinconce.
APA, Harvard, Vancouver, ISO, and other styles
50

Hamdar, Marian. "Conception et optimisation d'un système indirect efficace de climatisation ferroviaire." Paris, ENMP, 2008. http://www.theses.fr/2008ENMP1693.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography