To see the other types of publications on this topic, follow the link: MLR correction.

Dissertations / Theses on the topic 'MLR correction'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 16 dissertations / theses for your research on the topic 'MLR correction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jeník, Ivan. "Identifikace parametrů elasto-plastických modelů materiálu z experimentálních dat." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2015. http://www.nusl.cz/ntk/nusl-231979.

Full text
Abstract:
This master's thesis deals with the identification of the material flow curve from record of tensile test of smooth cylindrical specimen. First, necessary theory background is presented. Basic terms of incremental theory of plasticity, tensile test procedure and processing its outputs are described. Furthermore, possibilities of mathematical expression of the elastic-plastic material constitutive law, thus mathematical expression of the material flow curve itself. Mechanism of ductile damage of material is explained briefly as well. Overview of recent methods of the flow curve identification is given, focused on cases, when the stress distribution in a specimen is not uniaxial. That is either kind of analytic correction of basic formulas derived for uniaxial stress state, or application of mathematical optimization techniques combined with numerical simulation of the tensile test. Also unusual method of neural network is mentioned. For 8 given materials, the flow curve identification was performed using different methods. Namely by analytic correction, optimization, sequential identification and neural network. Algorithms of the last two methods were modified. Based on assessment of obtained results, application field and adjusting the parameters of single algorithms was recommended. It showed up, that an effective way to the accurate and credible results is the combination of different methods during flow curve identification procedure.
APA, Harvard, Vancouver, ISO, and other styles
2

Nerman, Isabell, and Jesper Andersson. "Rättelse i fastighetsregistrets inskrivningsdel : Kan det vara mer rätt att rätta mer?" Thesis, KTH, Fastigheter och byggande, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-298021.

Full text
Abstract:
Av 19 kap. 22 § 1 st. första meningen jordabalken följer att om fastighetsregistrets inskrivningsdel innehåller någon uppenbar oriktighet som beror på inskrivningsmyndighetens eller någon annans skrivfel, på något liknande förbiseende eller på ett tekniskt fel, ska inskrivningsmyndigheten rätta uppgiften. Avseende bestämmelsen ämnar examensarbetet att fastställa gällande rätt (de lege lata), analysera rekvisiten och föreslå regelförändringar(de lege ferenda) som möjliggör att rättelse skulle kunna tillämpas i fler situationer än vad som är möjligt idag. För detta har rättsdogmatisk metod, rättsvetenskaplig metod och empirisk metod använts. Utöver de traditionella rättskällorna inkluderas empiriskt material som underrättspraxis, JO-avgöranden och intervjumaterial. Även rättelsebestämmelserna 36 § förvaltningslagen (2017:900) och 4 kap. 21 § lagen (2008:990) om företagshypotek presenteras som underlag för en avslutande jämförelse. Av slutsatserna framgår bland annat att rättelse ska tillämpas restriktivt, vilketinnebär att endast oriktigheter som tydligt uppfyller rekvisiten kan rättas. Om rättelse skulle tillämpas i fler situationer är det viktigt att den enskildes rättstrygghet inte äventyras då denne kan lida skada efter att ha förlitat sig på registeruppgifter som sedan ändras genom rättelse.
19 ch. 22 § in the Land Code (Sw: jordabalken) stipulates that if the land register section of the Real Property Register contains an obvious inaccuracy which depends on the land registration authority or somebody else's clerical error, similar inadvertence or due to a technical error, the land registration authority shall correct the inaccuracy. Regarding this regulation, the purpose of this master’s thesis is to establish the law (de lege lata), analyse the necessary conditions and propose rule changes (de lege ferenda) whether correction could be applied in more situations than what is possible today. Beyond the traditional sources of law, empirical material consisting of lower court praxis, decisions from the Parliamentary ombudsmen and interview material are included. Also, the regulations regarding correction according to 36 § of the Administrative Procedure Act (Sw: förvaltningslagen (2017:900)) and 4 ch. 21 § of the Floating Charges Act (Sw: lag (2008:990) om företagshypotek) are presented as a basis for a concluding comparison. From the conclusion – for instance – it appears that 19 ch. 22 § of the Land Code has a restrictive interpretation, which means that only incorrections that in a clear way fulfil the necessary conditions can be corrected. If correction would be applied in more situations, it is important that the individual legal rights should not be compromised since a third party can suffer loss after relying on information in the register that later will be corrected.
APA, Harvard, Vancouver, ISO, and other styles
3

Thieuleux, François. "Contribution à l'amélioration de la correction atmosphérique pour l'observation de la couleur de l'océan depuis l'espace." Lille 1, 2002. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2002/50376-2002-301.pdf.

Full text
Abstract:
La diffusion atmosphérique des molécules et aérosols perturbe l'observation de la couleur depuis l'espace et nécessite l'utilsation d'un algorithme dit de correction atmosphérique. L'algorithme le plus usuel fait l'hypothèse d'aérosols non absorbants et suppose implicitement connu le profil vertical de la concentration en aérosols. Les observations par les capteurs spatiaux ont montré que ces hypothèses sont insuffisantes en particulier pour les zones survolées par le panache d'aérosols désertiques. Le travail présenté vise à développer un nouveau type d'algorithme basé sur l'observation multiangulaire. Nous avons simulé le signal, luminance normalisée ou réflectance, observé en haut de l'atmosphère en présence d'une couche d'aérosols localisés à une altitude variable. D'abord, nous présentons la modification du code de transfert radiatif, pour permettre l'introduction d'une couche localisée à une altitude déterminée, z. Les effets de l'altitude ont été évalués en distinguant la diffusion propre d'une absorption additionnelle. Les résultats obtenus, presentés ensuite montrent que les effets de l'absorption sont beaucoup plus importants que ceux de la diffusion. Les effets sont variables avec le modèle d'aérosol. L'effet d'absorption dépend peu du modèle d'aérosol, et varie de façon presque proportionnelle à l'épaisseur optique des aérosols en absorption, l'épaisseur optique moléculaire, l'altitude de la couche d'aérosols. Puis un algorithme original de correction de l'effet d'absorption atmosphérique est proposé. Enfin, nous avons évalué la précision du code de transfert radiatif sous les mêmes hypothèses. Il n'apparaît pas de biais qui soit supérieur à l'exigence de précision nécessaire à la correction atmosphérique pour l'observation spatiale de la couleur de l'eau, sauf quand la surface est agitée par le vent et quand les désaccords sont plus marqués.
APA, Harvard, Vancouver, ISO, and other styles
4

Steinmetz, François. "Étude de la correction de la diffusion atmosphérique et du rayonnement solaire réfléchi par la surface agitée de la mer pour l'observation de la couleur de l'océan depuis l'espace." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10010/document.

Full text
Abstract:
La principale difficulté pour l'observation de la "couleur de l'océan" depuis l'espace est d'effectuer les corrections atmosphériques, c'est à dire extraire le signal provenant des océans du signal total largement dominé par la contribution de l'atmosphère. Dans ce cadre, des problèmes spécifiques liés aux capteurs satellitaires utilisés, ou aux conditions d'observations, peuvent apparaître. Dans le cas du capteur POLDER-3, nous avons diagnostiqué des défauts sur les produits marins grâce aux mesures in situ BOUSSOLE, notamment attribuables aux données d'entrée (de niveau 1), et de proposer plusieurs ajustements. Ces modifications ont abouti à une amélioration majeure de précision des produits, d'un facteur 1.5 à 2. De plus, le même algorithme de correction atmosphérique a été appliqué aux données du capteur MERlS, ce qui a permis de mettre en évidence ses propriétés de fonctionnement. Les algorithmes de correction atmosphérique existants sont également limités par la tâche brillante du rayonnement solaire réfléchi par la surface agitée de la mer (le sun glint), ne pouvant fonctionner lorsque ce signal est trop intense. Pour de nombreux capteurs (MERlS, MODIS ... ) ceci rend près de la moitié des observations aux latitudes subtropicales inutilisables. Nous proposons un algorithme, appelé POLYMER, conçu pour fonctionner sur l'ensemble du sun glint. Si le gain en couverture spatiale est spectaculaire, il se fait encore au détriment de la précision des produits. Néanmoins, cet algorithme montre qu'il est possible d'utiliser de données contaminées par le sun glint pour la couleur de l'océan, et ouvre de nouvelles perspective pour les applications futures
The main challenge for observing the”ocean colour” from space is to make the atmospheric correction which consists in extracting the marine signal from the measured dominated by the atmospheric scattering. In this context, we have studied specific problems that arise due to the quality of the sensor radiometry or to the viewing conditions. In the case of POLDER-3, we have used the in situ BOUSSOLE data to detect some problems, one of which can be attributed to a defect in the input (level1) data. We have made empirical corrections for these defects, resulting in an improvement of the accuracy of the marine reflectance products by a factor 1.5 to 2. Moreover, the same atmospheric correction algorithm was applied to the MERIS data to emphasize some of its features. The existing atmospheric correction algorithms are also limited by the sunglint, failing to retrieve marine parameters in the bright pattern of the sun reflected by the wavy sea surface. For many sensors (MERIS,MODIS...), this makes almost half of the observations at subtropical latitudes unusable, reducing the global coverage accordingly. We are presenting an original algorithm, called POLYMER, designed to make atmospheric correction over the whole sun glint pattern. The increase of spatial coverage is spectacular, while the accuracy on the retrieved marine parameters remains acceptable.This study shows that itis possible to retrieve the ocean colour in the sun glint contaminated areas and opens new opportunities for future applications
APA, Harvard, Vancouver, ISO, and other styles
5

Hermozo, Laura. "L'estimation de la correction troposphérique humide pour l'altimétrie spatiale : l'approche variationnelle." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30026/document.

Full text
Abstract:
L'altimétrie spatiale contribue majoritairement à la compréhension de la circulation océanique régionale et globale. Elle permet aujourd'hui de fournir une cartographie de la topographie océanique à des échelles spatiales et temporelles de plus en plus fines. Le passage du signal radar à travers la vapeur d'eau de l'atmosphère implique un retard de l'onde, qui nécessite d'être corrigé : c'est la correction troposphérique humide. Des méthodes statistiques sont actuellement utilisées pour estimer la correction troposphérique humide. Elles permettent d'inverser des mesures de températures de brillance fournies par un radiomètre couplé à l'altimètre sur une mission altimétrique, à deux ou trois fréquences proches de la bande d'absorption de la vapeur d'eau, à 22.235 GHz. Bien que ces algorithmes permettent d'estimer cette correction avec de faibles incertitudes en plein océan, des améliorations sont nécessaires pour réduire les erreurs dans les zones océaniques complexes, comme les régions d'upwelling, et sur les surfaces hétérogènes, comme en régions côtières, sur glace de mer, ou sur les eaux continentales. A ces fins, une approche variationnelle uni-dimensionnelle (1D-Var) est développée dans cette thèse. Elle permet de tenir compte de la physique de l'atmosphère et des variations de la surface dans l'environnement des mesures, pour estimer la correction troposphérique de manière globale, sur différents types de surface, dans le contexte des missions altimétriques actuelles, et futures, dont les technologies instrumentales évoluent. Une analyse fine des caractéristiques de l'approche 1D-Var, et de ses performances, permet de montrer l'apport et l'impact des différents paramètres en jeu sur les variables atmosphériques restituées, et la correction troposphérique humide estimée. Les performances du 1D-Var ainsi que ses limites sont évaluées pour l'estimation la correction troposphérique humide en plein océan, en conditions de ciel clair. L'apport des mesures de températures de brillance aux hautes fréquences, typiques des missions altimétriques futures, est également analysé. Leur potentiel est exploité dans le cadre de l'estimation de la correction troposphérique humide dans les régions côtières, où les mesures de températures de brillance sont contaminées par la présence de terre dans le signal. Enfin, une analyse des estimations des émissivités de surface, et de leurs variations sur la glace de mer, est proposée dans le cadre d'une étude préliminaire à l'estimation de la correction troposphérique humide, aux interfaces complexes mer/glace de mer, dans les régions polaires
Space altimetry is one of the major contributors to the understanding of regional and global oceanic circulation. It currently enables to provide a map of ocean topography at higher temporal and spacial scales. A propagation delay of the altimeter signal along its path through atmospheric water vapor needs to be accounted for, and corresponds to the wet tropospheric correction. Statistical methods are currently used to estimate wet tropospheric correction. These methods are fed by brightness temperature measurements provided by a radiometer coupled to the altimeter, at two or three frequencies close to the water vapor absorption line, at 22.235 GHz. While these algorithms provide wet tropospheric correction with low uncertainties over open ocean, improvements are still needed to reduce higher uncertainties in complex oceanic areas, such as upwelling regions, and over heterogeneous surfaces, as coastal regions, sea ice or inland waters. To this end, a one-dimensional variational approach (1D-Var) is developed in the frame of this thesis. This approach accounts for atmospheric and surface variability in the surroundings of the measurements, to provide wet tropospheric correction estimates at a global scale, over various surfaces, in the context of both current and future altimetry missions, with improved instrumental technologies. We first analyze the characteristics of the 1D-Var approach and evaluate its performances. The contribution and impact of the different input parameters on retrieved atmospheric variables and wet tropospheric correction are shown through this analysis. The potential and limits of the 1D-Var approach to retrieve wet tropospheric correction over open ocean, for clear sky conditions, are evaluated. The contribution of high frequencies, typical to future altimetry missions, is also analyzed. It is fully exploited to retrieve wet tropospheric correction over coastal areas, where land contamination occurs within brightness temperature measurements. A preliminary analysis of surface emissivity estimates and their variability over sea ice is also undertaken, in the frame of the 1D-Var estimation of wet tropospheric correction over sea ice/open sea transition surfaces, in polar areas
APA, Harvard, Vancouver, ISO, and other styles
6

Thao, Soulivanh. "Tendance et variabilité de la vapeur d'eau atmosphérique : un enjeu pour l'étude du niveau moyen océanique." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2561/.

Full text
Abstract:
La mesure du niveau de la mer par altimétrie satellitaire est perturbée par la présence de vapeur d'eau dans l'atmosphère. Un radiomètre micro-onde, sur les missions altimétriques, est chargé de corriger les mesures de ces perturbations. Les exigences quant à la qualité de cette correction, appelée correction troposphérique humide, sont particulièrement fortes pour l'étude des changements climatiques. Cette thèse a pour objet l'étude des corrections troposphériques humides utilisées dans le cadre des missions altimétriques Jason-1 et Envisat. L'objectif est de caractériser les incertitudes liées à la correction et d'identifier les potentielles anomalies présentes. L'étude faire ressortir une potentielle dérive dans l'étalonnage du radiomètre de la mission Jason-1 après 2008. Pour la mission Envisat, l'analyse met en avant des biais régionaux à l'approche des côtes. Ces derniers sont probablement liés au traitement de la donnée radiométrique
Measurements of the sea surface height are disturbed by the presence of water vapor in the atmosphere. A microwave radiometer, on altimetric missions, is used to correct the measurements from theses disturbances. Requirements on the quality of this correction, called the wet tropospheric correction, are stringent for the survey of climate changes. This thesis concerns the monitoring of the wet tropospheric correction used in the altimetry missions, Jason-1 and Envisat. The aim is to characterize uncertainties related to this correction and to identify potential anomalies. The analysis brings out a potential drift in the radiometer used on Jason-1, after 2008. For the Envisat missions, the presence of biases near coastlines suggests processing related issues
APA, Harvard, Vancouver, ISO, and other styles
7

Bécu, Guislain Louis. "Contribution à la vérification des observations spatiales de la couleur de l'océan à l'aide du réseau de radiomètres optiques SIMBADA." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-7-8.pdf.

Full text
Abstract:
Nous présentons un réseau de radiomètres optiques de terrain, appelés SIMBADA (Satellite Intercomparison for Marine Biology and Aerosol Determination - Advanced version), destinés à la vérification des observations spatiales de la couleur de l'océan. Le SIMBADA réalise en mer des mesures in situ des trois paramètres indispensables à cette vérification : l'épaisseur optique en aérosol, le modèle d'aérosols, ainsi que la réflectance marine. Le radiomètre, portable et autonome, emegistre un signal optique selon onze canaux (de 350 à 870 nm), et mesure l'épaisseur optique en aérosols et la réflectance marine de manière quasi-simultanée grâce à deux gains électroniques. D'autre part, il s'affranchit de la réflexion parasite de la luminance du ciel sur la surface par polarisation. Nous présenterons d'abord l'instrument de manière détaillée, ainsi que le travail réalisé sur la détermination des coefficients d'étalonnage avec l'estimation d'une dérive temporelle et l'utilisation simultanée des étalons solaire et photométrique. Ensuite, nous présenterons deux améliorations apportées à l'algorithme de traitement des données: la première concerne l'estimation du modèle d'aérosols à partir de la variation spectrale de leur épaiseur optique, et la deuxième concerne une correction appliquée aux mesures de réflectance marine pour les corriger de la perturbation éventuelle de petits moutons d'écume. Enfin, nous présenterons la base de données (2300 mesures) réalisée avec la mise en réseau d'une vingtaine de SIMBADA pendant trois ans
Nous avons comparé les mesures SIMBADA avec d'autres mesures in situ, réalisées par trois autres instruments de terrain reconnus. La première comparaison a montré que le SIMBADA et le système de photomètre/radiomètre SMSR/SPMR s'accordent à 6% sur l'estimation de l'éclairement descendant et que les deux instruments estiment la réflectance marine avec une erreur de 10 à 20% entre 410 et 560 nm, et de 60 à 80% au-delà; la deuxième a montré que le SIMBADA et le photomètre solaire MicroTops mesurent l'épaisseur optique en aérosols avec une précision de 0. 02 en valeur absolue; enfin, la troisième a montré que le SIMBADA et le spectroradiomètre TriOS s'accordent à 3% (9% pour les grandes élevations solaires) sur l'estimation de l'éclairement descendant, et que les deux instruments estiment la réflectance marine avec une erreur de 10 à 15% entre 410 et 560 nm, et de 20 à 35% au-delà. Ces différentes analyses ont permis de montrer que le SIMBADA réalise ses mesures avec une précision de 0. 001 en termes de réflectance à 443 nm, ce qui est inférieur aux exigences (0. 002 à 443 nm). Enfin, la base de données SIMBADA a été utilisée pour vérifier les observations spatiales de la couleur de l'océan réalisées par les capteurs MERlS/ENVISAT et POLDER-2/ADEOS-2, en estimant leurs erreurs sur l'estimation de la réflectance marine, puis en les comparant aux exigences de l'observation spatiale de la couleur de l'océan (0. 002 en termes de réflectance marine au-dessus de la surface à 443 nm). La comparaison SIMBADA/MERlS a révélé une erreur assez importante sur les réflectances marines dérivées de MERlS après correction atmosphérique (RMS de 0. 008 à 443 nm). La comparaison SIMBADA/POLDER-2 a révélé une erreur moins importante sur les réflectances marines dérivées de POLDER-2 après correction atmosphérique (RMS inférieur à 0. 004 à 443 nm)
D'autre part, une analyse plus détaillée a été réalisée sur la vérification des données MERlS. Premièrement, les erreurs sur l'estimation de l'épaisseur optique en aérosols et du modèle d'aérosols dérivés de :MERlS sont assez élevées. Deuxièmement, l'erreur sur l'estimation de la réflectance marine croît aux courtes longueurs d'onde utilisées pour la couleur de l'océan, et est sans doute attribuable à la précision des codes de transfert radiatif utilisés et au choix des modèles d'aérosols utilisés. Aucun paramètre géophysique ou climatique (vitesse du vent, élévation solaire, latitude,. . . ) ne semble être corrélé à cette erreur. Par ailleurs, on améliore l'estimation de la réflectance marine en appliquant aux données un critère de qualité (flag :MERlSPCD_1_13) : le RMS passe dans ce cas à 0. 005 à 443 nm. Toutefois, ce critère semble diminuer d'un facteur deux le nombre de pixels déclarés valides. Enfin, l'impact des erreurs de correction atmosphérique sur l'estimation de la concentration en chlorophylle a été évaluée en appliquant le même algorithme bio-optique (OC4v4) aux réf1ectances marines issues de MERIS et de SIMBADA. La précision estimée est de 60% (30% lorsque le flag MERlS PCD_l_13 est appliqué), chiffre auquel il convient d'ajouter la variabilté naturelle de l'algorithme géophysique
APA, Harvard, Vancouver, ISO, and other styles
8

Azizipesteh, Baglo Hamid Reza. "Effect of various mix parameters on the true tensile strength of concrete." Thesis, Loughborough University, 2013. https://dspace.lboro.ac.uk/2134/12560.

Full text
Abstract:
The primary aim of this research was to develop a method for determining the true uniaxial tensile strength of concrete by conducting a series of cylinder splitting, modulus of rupture (MOR) and cylinder/cube compression tests. The main objectives were: • Critically reviewing previous published research in order to identify gaps in current knowledge and understanding, including theoretical and methodological contributions to the true uniaxial tensile strength of concrete. In order to maintain consistency and increase the reliability of the proposed methods, it is essential to review the literature to provide additional data points in order to add additional depth, breathe and rigor to Senussi's investigation (2004). • The design of self compacting concrete (SCC), normal strength concrete (NSC) and high strength concrete (HSC) mixes and undertaking lab-based experimental works for mixing, casting, curing and testing of specimens in order to establish new empirical evidence and data. • Analysing the data, presenting the results, and investigating the application of validity methods as stated by Lin and Raoof (1999) and Senussi (2004). • To draw conclusions including comparison with previous research and literature, including the proposal of new correction factors and recommendations for future research. 29 batches of NSC, 137 batches of HSC, 44 batches of fly ash SCC and 47 batches of GGBS SCC were cast and their hardened and fresh properties were measured. Hardened properties measured included: cylinder splitting strength, MOR, cylinder compressive strength and cube compressive strength. A variety of rheological tests were also applied to characterise the fresh properties of the SCC mixes, including: slump flow, T50, L-box, V-funnel, J-ring and sieve stability. Cylinders were also visually checked after splitting for segregation. The tensile strength of concrete has traditionally been expressed in terms of its compressive strength (e.g. ft = c x c f ). Based on this premise, extensive laboratory testing was conducted to evaluate the tensile strength of the concretes, including the direct tension test and the indirect cylinder splitting and MOR tests. These tests however, do not provide sufficiently accurate results for the true uniaxial tensile strength, due to the results being based upon different test methods. This shortcoming has been overcome by recently developed methods reported by Lin and Raoof (1999) and Senussi (2004) who proposed simple correction factors for the application to the cylinder splitting and MOR test results, with the final outcome providing practically reasonable estimates of the true uniaxial tensile strength of concrete, covering a wide range of concrete compressive strengths 12.57 ≤ fc ≤ 93.82 MPa, as well as a wide range of aggregate types. The current investigation has covered a wide range of ages at testing, from 3 to 91 days. Test data from other sources has also been applied for ages up to 365 days, with the test results reported relating to a variety of mix designs. NSC, SCC and HSC data from the current investigation has shown an encouraging correlation with the previously reported results, hence providing additional wider and deeper empirical evidence for the validity of the recommended correction factors. The results have also demonstrated that the type (size, texture and strength) of aggregate has a negligible effect on the recommended correction factors. The concrete age at testing was demonstrated to have a potentially significant effect on the recommended correction factors. Altering the cement type can also have a significant effect on the hardened properties measured and demonstrated practically noticeable variations on the recommended correction factors. The correction factors proved to be valid regarding the effects of incorporating various blended cements in the HSC and SCC. The NSC, HSC and SCC showed an encouraging correlation with previously reported results, providing additional support, depth, breadth and rigor for the validity of the correction factors recommended.
APA, Harvard, Vancouver, ISO, and other styles
9

Goyens, Clémence. "Validation et amélioration des méthodes de correction atmosphérique pour les images de la couleur de l'océan dans les eaux côtières optiquement complexes." Thesis, Littoral, 2013. http://www.theses.fr/2013DUNK0401/document.

Full text
Abstract:
L'acquisition de paramètres marins à partir des données spatiales de la couleur de l'eau nécessite l'élimination de la contribution de l'atmosphère au signal mesuré par le capteur. En effet, la majorité du rayonnement solaire mesuré par les instruments optiques dans les longueurs d'ondes qui intéressent la couleur de l'eau provient de la diffusion par les molécules de l'air et les aérosols atmosphériques. L'élimination de la contribution de l'atmosphère est appelée correction atmosphérique (CA). Pour les eaux claires, les méthodes de CA supposent une réflectance marine nulle dans le proche infra-rouge (PIR). Ceci permet d'estimer la réflectane de l'atmosphère et de l'extrapoler vers les bandes du visible, et donc de déterminer le signal marin qui contient les informations sur les propriétés optiques des eaux marines. Cette hypothèse n'est cependant pas vérifiée pour les eaux turbides, qui représentent la quasi totalité des eaux côtières. Par conséquent, de nombreux algorithmes de CA ont été développés pour les eaux côtières incluant des hypothèses alternatives. L'objectif de ce travail de thèse est de valider et d'améliorer ces méthodes de CA pour les images MODIS Aqua. Pour cela, diverses approches de CA développées pour les eaux cotières ont été comparées et validées : (1) l'algorithme standard de la NASA, (2) le "NIR Similary spectrum algorithm" qui inclut des hypothèes d'homogénéité spatiale des réflectances marines et atmosphériques, (3) l'algorithme qui utilise les bandes dans l'infrarouge moyen pour la CA dans les eaux très turbides, et (4) un algorithme utilisant un réseau de neurones artificiels. L'exercice de validation à partir de données in situ, et en fonction des types d'eaux, a permis d'identifier différentes pistes d'amélioration pour l'estimation du signal marin. L'un d'entre elles comprend l'utilisation de relations spectrales pour forcer les modèles de réflectances marines utilisés par les algorithmes CA pour estimer le signal marin dans le PIR. Des modifications ont été apportées aux modèles de réflectances marines de l'algorithme standard de la NASA et du "NIR Similarity spectrum algorithm". Chacun des modèles a été forcé avec des relations spectrales préalablement validées grâce à des données globales. Une étude de sensibilité et une validation de ces algorithmes modifiés à partir de données MODIS-Aqua dans la Manhe Orientale/Mer du Nord et la Guyane Française ont démontré que les modifications suggérées amélioraient les estimations du signal marin dans les eaux côtières optiquement complexes
To acquire marine parameters from remote sensing ocean color data, the sensor-measured signal needs to be corrected for the atmospheric contribution. Indeed, the solar radiation reflected by air molecules and atmospheric aerosols is significant in the sensor bands of interest for ocean color applications. The removal of the atmospheric contribution is called the atmospheric correction (AC). In open ocean waters, the AC relies on the assumption that the water is totally absorbent in the near infrared (NIR) part of the spectral region, allowing to retrieve the atmospheric contribution and to extrapolate it to the visible spectral range, and thus to determine the marine signal that contains the information on the optical properties of seawaters. However, this assumption is not valid in highly productive and turbid coastal waters. Hence, AC approaches for coastal waters need to rely on alternative assumptions. This Ph. D. thesis has as main objective to validate and improve these AC methods developed for contrasted coastal waters, with a focus on MODIS Aqua images. First, a validation and comparison of existing AC methods, relying on diverse assumptions and methods, is performed. Therefore, four commonly used AC methods are selected, (1) the standard NIR AC approach of NASA, (2) the NIR similarity spectrum AC approach including assumptions of spatial homogeneity in the water and aerosol reflectance, (3) the switching algorithm using the short wave infrared bands for AC in highly turbid waters, (4) an Artificial Neural Network algorithm. With the help of a validation exercise based on in situ data and as a function of the water type, several areas of improvement are delineated, including the use of spectral relationships to constrain NIR-modelling schemes. Modified NIR-modelling schemes are suggested for the standard NASA and NIR similarity spectrum AC methods. Both are forced with globally valid spectral relationships. Sensitivity studies and validation exercises, using MODIS-Aqua images in the Eastern English Channel/North Sea and French Guiana waters, are conducted showing that the suggested modified NIR-modelling schemes improve the estimations of the marine signal in contrasted coastal waters
APA, Harvard, Vancouver, ISO, and other styles
10

Lacressonnière, Fabien. "Conception de structures de conversion d'énergie à double fonctionnalité pour chariots électriques de manutention." Artois, 2005. http://www.theses.fr/2005ARTO0205.

Full text
Abstract:
Actuellement, dans les chariots électrique de manutention, deux convertisseurs statiques distincts sont utilisés : d'un côté un variateur de vitesse et de l'autre un chargeur de batterie. Notre étude porte sur l'utilisation des éléments de la chaîne de traction (variateur de vitesse) comme chargeur de batterie afin de réduire le coût et améliorer les performances. Pour mener cette étude, deux types de chariot ont été choisi : le transpalette à motorisation à courant continu et un chariot élévateur à motorisation à curant alternatif. Après un bref rappel des technologies et normes à respecter (pollution harmonique du réseau, isolation galvanique), le choix de la topologie s'est porté sur le convertisseur à stockage capacitif (CUK) avec isolation galvanique pour le transpalette et sur un onduleur/redresseur à M. L. I. Pour le chariot élévateur. Une étude mécanique pour les deux chariots a permis de conclure sur l'efficacité du freinage par récupération. Afin d'analyser l'influence d'un courant de charge ayant une composante sinusoïdale sur la batterie, le modèle équivalent de la batterie a été introduit. Pour le transpalette, l'analyse complète (dimensionnement, modèle dynamique, C. A. L. C. ) du convertisseur à stockage capacitif a été effectuée. Pour le chariot élévateur, le moteur asynchrone est couplé directement à la roue motrice et il est utilisé comme transformateur lors de la charge de la batterie. Une étude de dimensionnement du moteur a été menée et son association avec l'onduleur/redresseur M. L. I. A été analysée
Nowadays, in electric industrial trucks, two distinct power converters are used : on the one hand a speed controller and on the other hand a battery charger. The aim of the study is to use the existing components (speed controller) to realize a battery charger in order to reduce the cost and improve performances. To undertake this study, two industrial trucks have been selected : a transpallet with DC motorization and a fork lift truck with AC motorization. After a brief reminder on the technologies and standards to respect (harmonic pollution, galvanic isolation), the choice of the topology was made on the CUK converter with a galvanic isolation for the transpallet and on a P. W. M. Inverter/rectifier for the fork lift truck. A mechanical study for the two industrials trucks has allowed to conclude on the effectiveness from the regenerative braking. In order to analyse the influence of a charging current with a sinusoidal perturbation on the performances of the lead-acid battery, the electrical model has been introduced. For the transpallet, the full analyse (dimensioning, dynamical model, snubber) of the CUK converter has been done. For the fork lift truck, the induction motor is directly coupled at the main wheel and it is used like as a transformer during the charge of the battery. A dimensioning study of the motor has been presented and its interaction with the P. W. M. Inverter/rectifier has been analysed
APA, Harvard, Vancouver, ISO, and other styles
11

Siegelman, Lia. "Ageostrophic dynamics in the ocean interior A correction for the thermal mass–induced errors of CTD tags mounted on marine mammals, in the Journal of Atmospheric and Oceanic Technology 35 (6), June 2018 Submesoscale ocean fronts act as biological hotspot for southern elephant seal, in Scientific Reports 9, 2019 Ocean‐scale interactions from space, in Earth and Space Science 6(5), May 2019 Correction and accuracy of high- and low-resolution CTD data from animal-borne instruments, in the Journal of Atmospheric and Oceanic Technology 36 (5), May 2019 Diagnosing ocean‐wave‐turbulence interactions from space, in Geophysical Research Letters 46(15), August 2019 Sub‐mesoscale fronts modify elephant seals foraging behavior, in Limnology and Oceanography Letters, 4(6), December 2019." Thesis, Brest, 2019. http://www.theses.fr/2019BRES0094.

Full text
Abstract:
L'océan est le plus grand réservoir d'énergie solaire de notre planète. La quantité de chaleur qu'il est capable de stocker est modulée par sa circulation complexe, opérant sur une vaste gamme d’échelles allant du centimètre à la dizaine de milliers de kilomètres. Cette thèse s'intéresse à deux types de processus océaniques: les tourbillons de mésoéchelle, d'une taille de 100 à 300 km, et les fronts de sous-mésoéchelle, d'une taille inférieure à 50 km. L'idée communément admise est que les mouvements agéostrophiques de sous-mésoéchelle sont principalement confinés à la couche de mélange océanique de surface et sont faibles dans l'océan intérieur. Cette vision classique de la dynamique océanique repose sur l'hypothèse que l'océan intérieur est en équilibre quasi-géostrophique, empêchant la formation de forts gradients de densité en profondeur. Cette thèse remet en question ce paradigme en se basant sur des observations CTD in situ à haute résolution collectées par des éléphants de mer instrumentés, des images satellite d’élévation de la surface de l’océan, et des sorties de modèle à haute résolution dans le Courant Circumpolaire Antarctique.Les résultats indiquent que les mouvements agéostrophiques sont (i) générés par le champ tourbillonnaire de mésoéchelle via des processus defrontogenèse, et (ii) ne sont pas limités à la couche de mélange de surface ; bien au contraire, ils pénètrent dans l'océan intérieur jusqu'à 1000 m deprofondeur. Ces fronts agéostrophiques de sous-mésoéchelle sont associés à d'importants flux de chaleur dirigés de l'intérieur de l'océan vers la surface, d'une amplitude comparable aux flux air-mer.Cet effet peut potentiellement altérer la capacité de stockage de chaleur de l'océan et devrait être le plus fort dans les zones tourbillonnaires telles que le Courant Circumpolaire Antarctique, le Kuroshio et le Gulf Stream, les trois courants clefs du système climatique. Il apparaît ainsi que les fronts agéostrophiques de sous-mésoéchelle représentent une voie importante, mais encore largement méconnue, pour le transport de chaleur, de nutriments et de gaz entre l'intérieur et la surface de l'océan, avec des répercussions potentiellement majeures pour les systèmes biogéochimique et climatique
The ocean is the largest solar energy collector on Earth. The amount of heat it can store is modulated by its complex circulation, which spans a broad range of spatial scales, from centimeters to thousands of kilometers. This dissertation investigates two types of physical processes: mesoscale eddies (100-300 km size) and submesoscale fronts (£ 50 km size). To date, ageostrophic submesoscale motions are thought to be mainly trapped within the ocean surface mixed layer, and to be weak in the ocean interior. This is because, in the classical paradigm, motions below the mixed layer are broadly assumed to be in quasigeostrophic balance, preventing the formation of strong buoyancy gradients at depth. This dissertation introduces a paradigm shift; based on a combination of high-resolution in situ CTD data collected by instrumented elephant seals, satellite observations of sea surface height, and high-resolution model outputs in the Antarctic Circumpolar Current, we show that ageostrophic motions (i) are generated by the backgound mesoscale eddy field via frontogenesis processes, and (ii) are not solely confined to the ocean surface mixed layer but, rather, can extend in the ocean interior down to depths of 1 000 m. Deepreaching ageostrophic fronts are shown to drive an anomalous upward heat transport from the ocean interior back to the surface that is larger than other contributions to vertical heat transport and of comparable magnitude to air-sea fluxes. This effect can potentially alter oceanic heat uptake and will be strongest in eddy-rich regions such as the Antarctic Circumpolar Current, the Kuroshio Extension, and the Gulf Stream, all of which are key players in the climate system. As such, ageostrophic fronts at submesoscale provide an important, yet unexplored, pathway for the transport of heat, chemical and biological tracers, between the ocean interior and the surface, with potential major implications for the biogeochemical and climate systems
APA, Harvard, Vancouver, ISO, and other styles
12

Marzouk, Mounir. "Développement de chargeurs intégrés pour véhicules hybrides plug-in." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT088/document.

Full text
Abstract:
Ces travaux de thèse consistent en la conception et la réalisation d’une chaîne de tractionintégrée pour véhicule hybride plug-in. L’étude s’oriente vers une solution de convertisseur mutualisé,dans l’objectif de partager la traction et les modes chargeurs de batteries, la structure en NPC à 3niveaux est retenue. Le chargeur monophasé se base une topologie de redresseur à MLI monophaséavec trois bras entrelacés, avec l’utilisation des enroulements du moteur pour le filtrage. En chargeurtriphasé nous adaptons la topologie pour réaliser un montage en double boost triphasé. Pour chaqueconfiguration, les passifs sont dimensionnés pour répondre aux contraintes en courant BF et HF. Lecontrôle adopté se base sur les correcteurs résonants. Enfin, un prototype de 5 kW a été réalisé pourvalider les différents modes de l’application.Dans une seconde partie, nous proposons une solution de chargeur isolé sans étage continu auprimaire à double ponts actifs (DAB). La topologie est modélisée au premier harmonique et unecommande assurant l’absorption sinusoïdale est étudiée. Une configuration isolée triphasée permetl’accès aux puissances plus élevées ainsi que la réduction des ondulations de courant BF en sortie
This thesis consists on the design and realization of a plug-in hybrid vehicle integrated tractiondrive supply. The work turns to a solution of a mutualized converter, in the objective to imagine asolution which shared drive and battery chargers modes, the three-level NPC topology has beenretained. The single phase charger is based on an interleaved PWM rectifier, and motor windings areused as smoothing inductors. A double-boost PFC configuration is introduced to ensure the threephasecharger. Passives are sized in each configuration in order to take in account the whole currentconstraints (LF and HF). The PFC behavior is based on the resonant controllers. Then, a 5 kWprototype has been realized to validate the different application modes.In a second part, a single-stage isolated charger based on a Dual-Active-Bridge (DAB) isproposed. The topology is modeled to the fundamental and the PFC control law is studied. A threephaseconfiguration is simulated in order to achieve higher charging powers and to reduce batterycurrent low-frequency ripple
APA, Harvard, Vancouver, ISO, and other styles
13

"El Problema de la Acentuación y Solución para el Correcto Desempeño Académico y Profesional." Tesis, Universidad de las Américas Puebla, 2003. http://catarina.udlap.mx/u_dl_a/tales/documentos/mll/sanchez_m_e/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Li, Yi-Shan, and 李宜珊. "A mA2DPC Construction of OLS Codes for Multi-Cluster Error Correction for OS-MLD TSVs in 3D-ICs." Thesis, 2018. http://ndltd.ncl.edu.tw/handle/gzz6a7.

Full text
Abstract:
碩士
國立彰化師範大學
電子工程學系
106
Recently, Artificial Intelligence(AI) is becoming the global technology trend. Both the industry and academic are tending to develop AI. AI is based on computing massive data at high speed and has to reduce the error rate to the minimum. Because 3D-ICs can implement high-speed data transmission and high-performance computing, they are thought to be a solution to reach the AI needs in the future. But TSVs, the critical interconnects of 3D-ICs, usually have to execute high-speed transmission with high reliability through channels with EMI, cross-talks, hot-spots, thermal variations, and all kinds of impacts. Moreover, data TSVs are usually arranged as arrays, which may cause cluster errors occur. ECC is believed to be an effective method to improve the reliability of interconnects. Among all ECCs, one kind of one-step majority logic decodable codes, OLS codes, can correct multiple errors with high speed, but there still does not have an efficient way to construct the codes. In this thesis, a mA2DPC construction for constructing OLS codes was proposed. By the mathematical induction, we have verified that the error signals can be generated by the majority of the associated parity check bits of data bits. When the number of axes is between four and six, the mA2DPC is the optimized structure for zero-clock latency clock-level real-time high-reliability applications. To correct cluster errors, a sliding algorithm is applied. When the axis amount is m, m/2 cluster errors of size up to the height of data array can be corrected. In the error rate simulation section, a 6A2DPC is compared with a relative literature [11] and the 2DPC that our team had proposed [13]. According to the result of the simulation, we find that our work can reduce about 76.21 times of block error rate. Compared with the two pieces of literature above, the block error rate is reduced about 15.35 and 42.85 times respectively.
APA, Harvard, Vancouver, ISO, and other styles
15

Vadlamani, Lalitha. "Coding Schemes For Distributed Subspace Computation, Distributed Storage And Local Correctability." Thesis, 2015. http://hdl.handle.net/2005/2646.

Full text
Abstract:
In this thesis, three problems have been considered and new coding schemes have been devised for each of them. The first is related to distributed function computation, the second to coding for distributed storage and the final problem is based on locally correctable codes. A common theme of the first two problems considered is distributed computation. The first problem is motivated by the problem of distributed function computation considered by Korner and Marton, where the goal is to compute XOR of two binary sources at the receiver. It has been shown that linear encoders give better sum rates for some source distributions as compared to the usual Slepian-Wolf scheme. We generalize this distributed function computation setting to the case of more than two sources and the receiver is interested in computing multiple linear combinations of the sources. Consider `m' random variables each of which takes values from a finite field and are associated with a certain joint probability distribution. The receiver is interested in the lossless computation of `s' linear combinations of the m random variables. By considering the set of all linear combinations of m random variables as a vector space V , this problem can be interpreted as a subspace-computation problem. For this problem, we develop three increasingly refined approaches, all based on linear encoders. The first two approaches which are termed as common code approach and selected subspace approach, use a common matrix to encode all the sources. In the common code approach, the desired subspace W is computed at the receiver, whereas in the selected subspace approach, possibly a larger subspace U which contains the desired subspace is computed. The larger subspace U which gives the minimum sum rate itself is based on a decomposition of vector space V into a chain of subspaces. The chain of subspaces is determined by the joint probability distribution of m random variables and a notion of normalized measure of entropy. The third approach is a nested code approach, where all the encoding matrices are nested and the same subspace U which is identified in the selected subspace approach is computed. We characterize the sum rates under all the three approaches. The sum rate under nested code approach is no larger than both selected subspace approach and Slepian-Wolf approach. For a large class of joint distributions and subspaces W , the nested code scheme is shown to improve upon Slepian-Wolf scheme. Additionally, a class of source distributions and subspaces are identified, for which the nested code approach is sum-rate optimal. In the second problem, we consider a distributed storage network, where data is stored across nodes in a network which are failure-prone. The goal is to store data reliably and efficiently. For a required level of reliability, it is of interest to minimise storage overhead and also of interest to perform node repair efficiently. Conventionally replication and maximum distance separable (MDS) codes are employed in such systems. Though replication is very efficient in terms of node repair, the storage overhead is high. MDS codes have low storage overhead but even the repair of a single failed node requires contacting a large number of nodes and downloading all their data. We consider two coding solutions that have recently been proposed, which enable efficient node repair in case of single node failure. The first solution called regenerating codes seeks to minimize the amount of data downloaded for node repair, while codes with locality attempt to minimize the number of helper nodes accessed. We extend these results in two directions. In the first one, we introduce the notion of codes with locality where the local codes have minimum distance more than 2 and hence can recover a code symbol locally even in the presence of multiple erasures. These codes are termed as codes with local erasure correction. We say that a code has information locality if there exists a set of message symbols, each of which is covered by local codes. A code is said to have all-symbol locality if all the code symbols are covered by local codes. An upper bound on the minimum distance of codes with information locality is presented and codes that are optimal with respect to this bound are constructed. We make a connection between codes with local erasure correction and concatenated codes. The second direction seeks to build codes that combine the advantages of both codes with locality as well as regenerating codes. These codes, termed here as codes with local regeneration, are codes with locality over a vector alphabet, in which the local codes themselves are regenerating codes. There are two well known classes of regenerating codes known as minimum storage regenerating (MSR) codes and minimum bandwidth regenerating (MBR) codes. We derive two upper bounds on the minimum distance of vector-alphabet codes with locality, one for the case when the local codes are MSR codes and the second for the case when the local codes are MBR codes. We also provide several optimal constructions of both classes of codes which achieve their respective minimum distance bounds with equality. The third problem deals with locally correctable codes. A block code of length `n' is said to be locally correctable, if there exists a randomized algorithm such that any one of the coordinates of the codeword can be recovered by querying at most `r' coordinates, even in presence of some fraction of errors. We study the local correctability of linear codes whose duals contain 4-designs. We also derive a bound relating `r' and fraction of errors that can be tolerated, when each instance of the randomized algorithm is `t'-error correcting instead of simple parity computation.
APA, Harvard, Vancouver, ISO, and other styles
16

Moorthy, Prakash Narayana. "Codes With Locality For Distributed Data Storage." Thesis, 2015. http://hdl.handle.net/2005/2648.

Full text
Abstract:
This thesis deals with the problem of code design in the setting of distributed storage systems consisting of multiple storage nodes, storing many different data les. A primary goal in such systems is the efficient repair of a failed node. Regenerating codes and codes with locality are two classes of coding schemes that have recently been proposed in literature to address this goal. While regenerating codes aim to minimize the amount of data-download needed to carry out node repair, codes with locality seek to minimize the number of nodes accessed during node repair. Our focus here is on linear codes with locality, which is a concept originally introduced by Gopalan et al. in the context of recovering from a single node failure. A code-symbol of a linear code C is said to have locality r, if it can be recovered via a linear combination of r other code-symbols of C. The code C is said to have (i) information-symbol locality r, if all of its message symbols have locality r, and (ii) all-symbol locality r, if all the code-symbols have locality r. We make the following three contributions to the area of codes with locality. Firstly, we extend the notion of locality, in two directions, so as to permit local recovery even in the presence of multiple node failures. In the first direction, we consider codes with \local error correction" in which a code-symbol is protected by a local-error-correcting code having local-minimum-distance 3, and thus allowing local recovery of the code-symbol even in the presence of 2 other code-symbol erasures. In the second direction, we study codes with all-symbol locality that can recover from two erasures via a sequence of two local, parity-check computations. When restricted to the case of all-symbol locality and two erasures, the second approach allows, in general, for design of codes having larger minimum distance than what is possible via the rst approach. Under both approaches, by studying the generalized Hamming weights of the dual codes, we derive tight upper bounds on their respective minimum distances. Optimal code constructions are identified under both approaches, for a class of code parameters. A few interesting corollaries result from this part of our work. Firstly, we obtain a new upper bound on the minimum distance of concatenated codes and secondly, we show how it is always possible to construct the best-possible code (having largest minimum distance) of a given dimension when the code's parity check matrix is partially specified. In a third corollary, we obtain a new upper bound for the minimum distance of codes with all-symbol locality in the single erasure case. Secondly, we introduce the notion of codes with local regeneration that seek to combine the advantages of both codes with locality as well as regenerating codes. These are vector-alphabet analogues of codes with local error correction in which the local codes themselves are regenerating codes. An upper bound on the minimum distance is derived when the constituent local codes have a certain uniform rank accumulation (URA) property. This property is possessed by both the minimum storage regenerating (MSR) and the minimum bandwidth regenerating (MBR) codes. We provide several optimal constructions of codes with local regeneration, where the local codes are either the MSR or the MBR codes. The discussion here is also extended to the case of general vector-linear codes with locality, in which the local codes do not necessarily have the URA property. Finally, we evaluate the efficacy of two specific coding solutions, both possessing an inherent double replication of data, in a practical distributed storage setting known as Hadoop. Hadoop is an open-source platform dealing with distributed storage of data in which the primary aim is to perform distributed computation on the stored data via a paradigm known as Map Reduce. Our evaluation shows that while these codes have efficient repair properties, their vector-alphabet-nature can negatively a affect Map Reduce performance, if they are implemented under the current Hadoop architecture. Specifically, we see that under the current architecture, the choice of number processor cores per node and Map-task scheduling algorithm play a major role in determining their performance. The performance evaluation is carried out via a combination of simulations and actual experiments in Hadoop clusters. As a remedy to the problem, we also pro-pose a modified architecture in which one allows erasure coding across blocks belonging to different les. Under the modified architecture, the new coding solutions will not suffer from any Map Reduce performance-loss as seen in the original architecture, while retaining all of their desired repair properties
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography