To see the other types of publications on this topic, follow the link: Code distribution.

Dissertations / Theses on the topic 'Code distribution'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Code distribution.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pazat, Jean-Louis. "Génération de code réparti par distribution de données." Habilitation à diriger des recherches, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00170867.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Pazat, Jean-Louis. "Génération de code réparti par distribution de données." [S.l.] : [s.n.], 1997. ftp://ftp.irisa.fr/techreports/habilitations/pazat.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Hollinger, Kenneth B. "Code optimization for the Choi-Williams distribution for ELINT applications." Thesis, Monterey, California : Naval Postgraduate School, 2009. http://edocs.nps.edu/npspubs/scholarly/theses/2009/Dec/09Dec%5FHollinger.pdf.

Full text
Abstract:
Thesis (M.S. in Electrical Engineering)--Naval Postgraduate School, December 2009.<br>Thesis Advisor(s): Fouts, Douglas J. ; Pace, Phillip E. "December 2009." Description based on title screen as viewed on January 27, 2010. Author(s) subject terms: Choi-Williams Distribution, Signal Processing, Algorithm Optimization, C programming, Low Probability of Intercept (LPI), Radar detection, Radar classification. Includes bibliographical references (p. 75-76). Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
4

Kamfor, Michael. "Robustesse et spectroscopie du code torique dans un champ magnétique." Paris 6, 2013. http://www.theses.fr/2013PA066113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Melin, Emmanuel. "Traitement de l'irregularite dans la parallelisation de code sequentiel par distribution des donnees." Orléans, 1998. http://www.theses.fr/1998ORLE2018.

Full text
Abstract:
Cette these est consacree a l'etude d'un modele cible pour la traduction de code sequentiel en code parallele. Les approches classiques de la parallelisation automatique impliquent l'analyse exacte des dependances de donnees entre les operations. L'experience a montre que cette methode est souvent inefficace dans le cas des calculs sur objets irreguliers. Le principe de la resolution dynamique des acces offre une reponse simple pour la traduction de code presentant des acces irreguliers aux donnees. Toutefois, dans les approches classiques, les performances sont limitees par le modele de communication. Nous proposons une methode de traduction reprenant le principe de la resolution dynamique des acces. Notre approche consiste a structurer les programmes de telle sorte que les informations de dependances et d'independances entre les instructions soient representees par la syntaxe. Les synchronisations sont basees sur l'attente de signaux diffusant des compteurs multi niveaux, les horloges structurelles. Les acces en memoire distante sont diriges par la structure syntaxique du programme. Nous proposons un langage dont la machine abstraite est basee sur le modele precedent de synchronisation et de communication. Les lectures en memoire distante dirigees par la syntaxe permettent d'eviter les synchronisations globales lors de la traduction de codes sequentiels. Lorsqu'une analyse de dependance, meme partielle, est praticable on peut remplacer les acces en memoire distante par des envois de messages. Le modele de synchronisation dirige par la syntaxe permet alors d'eviter le parcours de toutes les structures de controle par tous les indices. Nous montrons qu'il est possible de valider formellement l'approche. Nous terminons en donnant des exemples de programmes parallelises selon notre methode et en comparant leurs performances avec celles de programmes parallelises suivant des approches plus classiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Leydold, Josef, Gerhard Derflinger, Günter Tirler, and Wolfgang Hörmann. "An Automatic Code Generator for Nonuniform Random Variate Generation." Department of Statistics and Mathematics, Abt. f. Angewandte Statistik u. Datenverarbeitung, WU Vienna University of Economics and Business, 2001. http://epub.wu.ac.at/364/1/document.pdf.

Full text
Abstract:
There exists a vast literature on nonuniform random variate generators. Most of these generators are especially designed for a particular distribution. However in pratice only a few of these are available to practioners. Moreover for problems as (e.g.) sampling from the truncated normal distribution or sampling from fairly uncommon distributions there are often no algorithms available. In the last decade so called universal methods have been developed for these cases. The resulting algorithms are fast and have properties that make them attractive even for standard distributions. In this contribution we describe the concept of Automatic random variate generation where these methods are used to produce a single piece of code in a high level programming language. Using a web-based front-end to such a program this is an easy-to-use source for researchers and programmers for high quality generators for a large class of distributions. Using our UNURAN library we have implemented such a system, which is accessable at <a href="http://statistik.wu-wien.ac.at/anuran" target="_blank">http://statistik.wu-wien.ac.at/anuran</a>.<br>Series: Preprint Series / Department of Applied Statistics and Data Processing
APA, Harvard, Vancouver, ISO, and other styles
7

Singh, Neeta S. "An automatic code generation tool for partitioned software in distributed computing." [Tampa, Fla.] : University of South Florida, 2005. http://purl.fcla.edu/fcla/etd/SFE0001129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Qian, Liqin. "Contributions to the theory of algebraic coding on finite fields and rings and their applications." Electronic Thesis or Diss., Paris 8, 2022. http://www.theses.fr/2022PA080064.

Full text
Abstract:
La théorie du codage algébrique sur les corps et les anneaux finis a une grande importance dans la théorie de l'information en raison de leurs diverses applications dans les schémas de partage de secrets, les graphes fortement réguliers, les codes d'authentification et de communication. Cette thèse aborde plusieurs sujets de recherche selon les orientations dans ce contexte, dont les méthodes de construction sont au cœur de nos préoccupations. Plus précisément, nous nous intéressons aux constructions de codes optimaux (ou codes asymptotiquement optimaux), aux constructions de codes linéaires à "hull" unidimensionnelle, aux constructions de codes minimaux et aux constructions de codes linéaires projectifs. Les principales contributions sont résumé comme suit. Cette thèse fournie une description explicite des caractères additifs et multiplicatifs sur les anneaux finis (précisément S\mathbb{F}_q+u\mathbb{F}_q~(u^2= 0)S et _\mathbb{F} _q +u\mathbb{F}_q~(u^2=u)s), utilise des sommes Gaussiennes, hyper Eisenstein et Jacobi et fournit plusieurs classes de nouveaux codes optimaux (ou asymptotiquement optimaux) avec des paramètres flexibles, propose des codes linéaires (optimaux ou quasi-optimal) avec une "hull" unidimensionnelle sur des corps finis en utilisant des outils de la théorie de la somme Gaussienne. De plus, cette thèse explore plusieurs classes de codes linéaires binaires (optimaux pour la borne de Griesmer bien connue) sur des corps finis basés sur deux constructions génériques utilisant des fonctions. Aussi, elle détermine leurs paramètres et leurs distributions de poids et en déduit plusieurs familles infinies de codes linéaires minimaux. Enfin, elle étudie des constructions optimales de plusieurs classes de codes linéaires binaires projectifs avec peu de poids et leurs codes duaux correspondants<br>Algebraic coding theory over finite fields and rings has always been an important research topic in information theory thanks to their various applications in secret sharing schemes, strongly regular graphs, authentication and communication codes.This thesis addresses several research topics according to the orientations in this context, whose construction methods are at the heart of our concerns. Specifically, we are interested in the constructions of optimal codebooks (or asymptotically optimal codebooks), the constructions of linear codes with a one-dimensional hull, the constructions of minimal codes, and the constructions of projective linear codes. The main contributions are summarized as follows. This thesis gives an explicit description of additive and multiplicative characters on finite rings (precisely _\mathbb{F}_q+u\mathbb{F}_q~(u^2= 0)s and S\mathbb{F}_q+u\mathbb{F}_q~(u^2=u)S), employees Gaussian, hyper Eisenstein and Jacobi sums and proposes several classes of optimal (or asymptotically optimal) new codebooks with flexible parameters. Next, it proposes(optimal or nearly optimal) linear codes with a one-dimensional hull over finite fields by employing tools from the theory of Gaussian sums. It develops an original method to construct these codes. It presents sufficient conditions for one-dimensional hull codes and a lower bound on its minimum distance. Besides, this thesis explores several classes of (optimal for the well-known Griesmer bound) binary linear codes over finite fields based on two generic constructions using functions. It determines their parameters and weight distributions and derives several infinite families of minimal linear codes. Finally, it studies (optimal for the sphere packing bound) constructions of several classes of projective binary linear codes with a few weight and their corresponding duals codes
APA, Harvard, Vancouver, ISO, and other styles
9

Planells-Rodríguez, Milena. "Modélisation des erreurs en sortie du décodeur dans une chaîne de transmission par satellite." Paris, ENST, 2003. http://www.theses.fr/2003ENST0023.

Full text
Abstract:
Cette thèse traite du comportement des erreurs en sortie du decodeur dans une chaîne de transmission par satellite. Deux types de codage canal sont étudiés: la concaténation d'un code convolutif avec un code bloc Reed-Solomon, et la concaténation en parallèle de deux codes convolutifs avec décodage itératif (turbocode). L'algorithme utilisé pour le décodage convolutif dans le premier schéma est le maximum de vraisemblance, que l'on appelle aussi algorithme de Viterbi. On sait que les erreurs en sortie de cet algorithme apparaissent par rafales, à cause de la mémoire du code. Un groupe de bits décodés correctement entre deux rafales est appelé gap. La sortie d'un décodeur fondé sur le maximum de vraisemblance peut être modélisée par une chaîne de Markov à deux états: un premier état sans erreur (état bon) et un deuxième état où les erreurs surgissent par rafales (état mauvais). Concernant la modélisation des rafales d'erreurs, les modèles proposés jusqu'à maintenant sont capables de reproduire seulement le comportement des erreurs pour des rafales très longues et à de très faible rapport signal sur bruit. C'est pourquoi nous avons développé un nouveau modèle à partir des propriétés du code qui donne des très bons résultats pour n'importe quel longueur de rafale d'erreur. Dans le déuxième schéma de codage, on utilise des algorithmes itératifs. Ces algorithmes font appel au principe du Maximum A Posteriori (MAP). Cette thèse analyse le comportement des erreurs en sortie de ces décodeurs itératifs et propose une série de modèles pour des differents algorithmes (Log-MAP et Max-Log-MAP)<br>This dissertation studies the behavior of the errors at the output of the decoder on a satellite communication system. Two different types of channel coding are considered. On one hand, a classical concatenation of a Reed-Solomon with a convolutional code and interleaving. On the other hand, a code from the turbo-codes family. The algorithm used in the convolutional decoding of the first coding system is the maximum likelihood algorithm. It is known that errors at the output of this algorithm are grouped in bursts due to the memory of the code. The group of correct bits between bursts is called a gap. Thus, the output of a maximum likelihood decoder can be modeled by a Markov chain with two states: a first state where no errors take place (good state) and a second state where errors appear in bursts (bad state). Regarding the burst modeling, the previous proposed models did not fit the simulation results for low and average burst lengths. Therefore, we have developed a new model based on the properties of the code that fits the range of all possible bursts lengths. On the second coding system, instead of using a maximum likelihood decoding, iterative decoding based on the successive decoding of each constituent code is considered. These iterative decoding algorithms are based on the Maximum A Posteriori (MAP) principle. This dissertation analyses the behavior of the errors at the output of such iterative decoders and proposes a model that fits quite well with the real errors simulated via Monte Carlo simulations
APA, Harvard, Vancouver, ISO, and other styles
10

Boffa, Francesco. "A Vlasov-hybrid code with Hermite expansion of the distribution function for the study of low growth rate instabilities." Thesis, Queen Mary, University of London, 2018. http://qmro.qmul.ac.uk/xmlui/handle/123456789/53943.

Full text
Abstract:
Within turbulence there are many phenomena which are currently unsolved. In the solar wind temperature anisotropies and low growth rates instability have a dominant role in defining the turbulent behaviour of plasma. Due to the non- linearity of the equations involved in the description of the physics of plasmas numerical simulations are a fundamental tool to study the dynamics of turbulent phenomena. In particular, hybrid codes are widely used in space plasma applications due to their ability to simulate large regions of volume maintaining some kinetic effects. However, due to the sensitivity to the initial level of noise in the simulation, low growth rate instabilities are particularly difficult to simulate. Particle in Cell-hybrid simulations require too many particles to reduce the initial noise, while Vlasov-hybrid simulations require too many grid points to fully discretize spatial and velocity phase spaces. We present here a Vlasov-hybrid algorithm and code implementation where the distribution function is expanded in series of Hermite functions. Thanks to the properties of these it is possible to project the Vlasov equation to find an equation for each coefficient of the expansion. These coefficients are advanced in time using a Current Advance Method algorithm with splitting method for the Vlasov operator. The former is treated explicitly, while the latter is treated implicitly with a GMRES solver. The current is advanced with a temporal ODE derived taking moments of the Vlasov equation. A 1D3V code is implemented, tested and used to study low growth rate instabilities such as a proton cyclotron instability and a ion/ion right hand resonant instability with small relative velocity drift between beam and core populations. The results are compared with existing hybrid algorithms that we implemented. A 2D3V parallelized version of the code is implemented and described here. Initial results are presented and future improvements are discussed.
APA, Harvard, Vancouver, ISO, and other styles
11

Bränd, Emelie, and Ann-Mari Olofsson. "Experiments and simulations of the flow velocity distribution downstream the Xiluodu hydropower station." Thesis, Uppsala universitet, Elektricitetslära, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-143818.

Full text
Abstract:
Hydropower is a more environmental friendly way of producing electric power than many other alternatives today. Though, the effects of constructing mega dams are much tangible for the local eco systems in addition to changing many people’s lives forever. In order to prevent floods, riverbank erosions or landslides, proper investigations of the environmental impact from dam constructions must be performed. One of the key parameters in such investigations is the flow discharge velocity. This master thesis treats experimental measurements and numerical simulations of the velocity downstream a model of Xiluodu dam. The Xiluodu dam is a mega dam under construction in China and will have a total capacity of 12 600 MW when completed. The model is in scale 1:100 and the experiments have been performed at Department of Hydraulic Engineering, Tsinghua University, Beijing, China. The velocity profile shows that the velocity in the middle of the river is larger than the velocity at the surface and near the riverbank. The comparison between the measured and the simulated velocities shows a difference of less than 20 percent in almost all points which can be considered as a good result. In those points where the difference is more than 20 percent, this is believed to be due to the position of these points. Some of them were located near a vortex and others very close to the bottom. This is a problem when sparsely measured topography in combination with linear interpolation makes the boundaries of the simulations incorrect. In order to perform better simulations, more densely topography data and better flow boundary conditions should be used. More measuring points of the velocity could also improve the result.
APA, Harvard, Vancouver, ISO, and other styles
12

Simonini, Giorgio. "Qualification du calcul de la puissance des coeurs de réacteurs à plaques : développement et application d'une nouvelle approche géostatistique." Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF22273.

Full text
Abstract:
Cette thèse a pour but de contribuer à la qualification du formulaire de calcul neutronique NARVAL, dédié aux coeurs de réacteurs à plaques. En particulier, l’objectif est de développer des méthodes innovantes permettant d’utiliser les données expérimentales inédites du programme HIPPOCAMPE pour évaluer la précision du profil de puissance calculé. La complexité provient de la localisation de l’instrumentation (chambres à fission placées entre les assemblages) et des hétérogénéités caractéristiques de ce type de coeurs (géométrie à plaques, poisons consommables et de contrôle solides). Pour aborder ce problème deux voies ont été mises en oeuvre : la première voie consiste à « combiner puis extrapoler » les écarts C/E observés afin de déterminer les incertitudes associées aux facteurs de puissance. Nous avons utilisé, pour ce faire, la méthode « P/A », traditionnellement employée dans les REP électrogènes mais jamais appliquée aux coeurs à plaques à ce jour. La deuxième voie passe, en revanche, par la reconstruction d’une nappe de puissance à utiliser comme référence (comparaison calcul/« expérience-reconstruite ») : nous avons focalisé notre travail sur des techniques géostatistiques. Après avoir constaté que les deux méthodes conduisent à des résultats satisfaisants (erreur comparable à l’incertitude expérimentale cible) nous avons continué notre recherche, en explorant les possibles développements et en introduisant en particulier une nouvelle méthode hybride (associant les techniques géostatistiques à la méthode P/A) qui permet d'améliorer ultérieurement la qualification du profil de puissance (écart-type des écarts C/E cohérent avec la constatation expérimentale)<br>The aim of this doctoral thesis work is to contribute to the experimental validation of a neutron physic code, called NARVAL, devoted to the analysis of slab cores reactors. The primary objective is to develop some innovative methods in order to validate the computed power map starting from the original experimental data, provided by the HIPPOCAMPE campaign. The particular position of the instrumentation (fission chambers located between the assemblies) and the strong heterogeneities, characterising this specific core design (slab geometry, burnable and control neutron absorbers in solid state) represent the main challenge of this work. Two different approaches are investigated : the first one consists in “combining and extrapolating” the observed calculated/experimental results in order to evaluate the uncertainty of power coefficients. Among different solutions, the “P/A” method is chosen : it is usually employed to perform conventional PWR plant analysis and has never been applied before to slab cores. The latter aims to reconstruct a power map that could be used as a direct reference for code validation : in this case the geostatistical techniques are selected. These methods provide satisfactory results as estimated errors are in good agreement with the experimental uncertainty target. Nevertheless, in this work a new hybrid method, applying the geostatistical technics to the P/A scheme, is investigated and developed. The good agreement between the experimental and the estimated validations of the computed power map attests the noteworthy performance of this new method
APA, Harvard, Vancouver, ISO, and other styles
13

Relaza, Théodore Jean Richard. "Sécurité et disponibilité des données stockées dans les nuages." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30009/document.

Full text
Abstract:
Avec le développement de l'Internet, l'informatique s'est basée essentiellement sur les communications entre serveurs, postes utilisateurs, réseaux et data centers. Au début des années 2000, les deux tendances à savoir la mise à disposition d'applications et la virtualisation de l'infrastructure ont vu le jour. La convergence de ces deux tendances a donné naissance à un concept fédérateur qu'est le Cloud Computing (informatique en nuage). Le stockage des données apparaît alors comme un élément central de la problématique liée à la mise dans le nuage des processus et des ressources. Qu'il s'agisse d'une simple externalisation du stockage à des fins de sauvegarde, de l'utilisation de services logiciels hébergés ou de la virtualisation chez un fournisseur tiers de l'infrastructure informatique de l'entreprise, la sécurité des données est cruciale. Cette sécurité se décline selon trois axes : la disponibilité, l'intégrité et la confidentialité des données. Le contexte de nos travaux concerne la virtualisation du stockage dédiée à l'informatique en nuage (Cloud Computing). Ces travaux se font dans le cadre du projet SVC (Secured Virtual Cloud) financé par le Fond National pour la Société Numérique " Investissement d'avenir ". Ils ont conduit au développement d'un intergiciel de virtualisation du stockage, nommé CloViS (Cloud Virtualized Storage), qui entre dans une phase de valorisation portée par la SATT Toulouse-Tech-Transfer. CloViS est un intergiciel de gestion de données développé au sein du laboratoire IRIT, qui permet la virtualisation de ressources de stockage hétérogènes et distribuées, accessibles d'une manière uniforme et transparente. CloViS possède la particularité de mettre en adéquation les besoins des utilisateurs et les disponibilités du système par le biais de qualités de service définies sur des volumes virtuels. Notre contribution à ce domaine concerne les techniques de distribution des données afin d'améliorer leur disponibilité et la fiabilité des opérations d'entrées/sorties dans CloViS. En effet, face à l'explosion du volume des données, l'utilisation de la réplication ne peut constituer une solution pérenne. L'utilisation de codes correcteurs ou de schémas de seuil apparaît alors comme une alternative valable pour maîtriser les volumes de stockage. Néanmoins aucun protocole de maintien de la cohérence des données n'est, à ce jour, adapté à ces nouvelles méthodes de distribution. Nous proposons pour cela des protocoles de cohérence des données adaptés à ces différentes techniques de distribution des données. Nous analysons ensuite ces protocoles pour mettre en exergue leurs avantages et inconvénients respectifs. En effet, le choix d'une technique de distribution de données et d'un protocole de cohérence des données associé se base sur des critères de performance notamment la disponibilité en écriture et lecture, l'utilisation des ressources système (comme l'espace de stockage utilisé) ou le nombre moyen de messages échangés durant les opérations de lecture et écriture<br>With the development of Internet, Information Technology was essentially based on communications between servers, user stations, networks and data centers. Both trends "making application available" and "infrastructure virtualization" have emerged in the early 2000s. The convergence of these two trends has resulted in a federator concept, which is the Cloud Computing. Data storage appears as a central component of the problematic associated with the move of processes and resources in the cloud. Whether it is a simple storage externalization for backup purposes, use of hosted software services or virtualization in a third-party provider of the company computing infrastructure, data security is crucial. This security declines according to three axes: data availability, integrity and confidentiality. The context of our work concerns the storage virtualization dedicated to Cloud Computing. This work is carried out under the aegis of SVC (Secured Virtual Cloud) project, financed by the National Found for Digital Society "Investment for the future". This led to the development of a storage virtualization middleware, named CloViS (Cloud Virtualized Storage), which is entering a valorization phase driven by SATT Toulouse-Tech-Transfer. CloViS is a data management middleware developped within the IRIT laboratory. It allows virtualizing of distributed and heterogeneous storage resources, with uniform and seamless access. CloViS aligns user needs and system availabilities through qualities of service defined on virtual volumes. Our contribution in this field concerns data distribution techniques to improve their availability and the reliability of I/O operations in CloViS. Indeed, faced with the explosion in the amount of data, the use of replication can not be a permanent solution. The use of "Erasure Resilient Code" or "Threshold Schemes" appears as a valid alternative to control storage volumes. However, no data consistency protocol is, to date, adapted to these new data distribution methods. For this reason, we propose to adapt these different data distribution techniques. We then analyse these new protocols, highlighting their respective advantages and disadvantages. Indeed, the choice of a data distribution technique and the associated data consistency protocol is based on performance criteria, especially the availability and the number of messages exchanged during the read and write operations or the use of system resources (such as storage space used)
APA, Harvard, Vancouver, ISO, and other styles
14

Garalevičius, Zigmas. "La codification du droit des contrats en Lituanie - l’exemple des contrats de distribution." Thesis, Paris 2, 2015. http://www.theses.fr/2015PA020056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Vaka, Kranthi, and Karthik Narla. "The impact of maturity, scale and distribution on software quality : An industrial case study." Thesis, Blekinge Tekniska Högskola, Institutionen för programvaruteknik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-15626.

Full text
Abstract:
Context. In this ever-changing world of software development, the process of organizations adopting distributed development is gaining prominence. Implementing various development processes in such distributed environment is giving rise to numerous issues which affects the quality of the product. These issues could be due to the involvement of architects across national borders during the process of development. In this research, the focus is to improve software quality by addressing the impact of maturity and scale between teams and its affect on code review process. Further to identify the issues behind the distribution between teams separated by geographical, temporal and cultural distances. Objectives. The main objective of this research is to identify how different factors such as maturity on quality of deliverables, scale and distribution that impacts the code review process affecting software quality. Based on code review comments in data set, the factors that were examined in this research are evolvability of defects and difference in the quality of software developed by mature and immature teams within code review process. Later on, the issues related to the impact of geographical, temporal and cultural distances on the type of defects revealed during distributed development are identified. Methods. To achieve these objectives, a case study was conducted at Ericsson. A mixed approach has been chosen that includes, archival data and semi-structured interviews to gather useful data for this research. Archival data is one of the data collection method used for reviewing comments in data set and gather quantitative results for the study. We employed approaches such as descriptive statistics, hypothesis testing, and graphical representation to analyze data. Moreover, to strengthen these results, semi-structured group interview is conducted to triangulate the data and collect additional insights about code review process in large scale organizations. Results. By conducting this research, it is inferred that teams with a lower level of maturity produce more number of defects. It was observed that 35.11% functional, 59.03% maintainability, 0.11% compatibility, 0.028% security, 0.73% reliability, 4.96% performance efficiency, 0.014% portability of defects were found from archival data. Majority of defects were of functional and maintainability type, which impacts software quality in distributed environment. In addition to the above-mentioned results, other findings are related to evolvability of defects within immature teams which shows that there is no particular trend in increase or decrease in number of defects. Issues that occur due to distribution between teams are found out in this research. The overall results of this study are to suggest the impact of maturity and scale on software quality by making numerical assumptions and validating these finding with interviews. Interviews are also used to inquire information about the issues from dataset related to the impact of global software engineering (GSE) distances on code review process. Conclusions. At the end of this research it is concluded that in these type of projects, immature teams produce more number of defects than mature teams. This is because when large-scale projects are distributed globally, it is always harder to share and acquire knowledge between teams, increase group learning and mentor teams located in immature sites. Immature developers have problems of understanding the structure of code, new architects need to acquire knowledge on the scope and real time issues for improving quality of software. Using results presented in this thesis, researchers can find new gaps easily to extend the research on various influences on code review process in distributed environment.
APA, Harvard, Vancouver, ISO, and other styles
16

Hadj-Aïssa, Hakim. "Contribution critique à l’étude du déséquilibre significatif au sens de l’article L. 442-1 du Code de commerce." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0250.

Full text
Abstract:
La présente contribution s’intéresse à l’étude du déséquilibre significatif au sens de l’article L. 442-1 du Code de commerce (ancien article L. 442-6). Les interrogations qu’il suscite sont nombreuses : connaissance et spécificité de la règle dans les relations commerciales, légitimité du texte, cohérence interne de ses dispositions et mise en perspective dans le système global de lutte contre le déséquilibre significatif. Pour y répondre, il est nécessaire de combiner deux approches, l’une analytique et l’autre synthétique. À travers la première, il s’agit de mettre en lumière, par une méthode scientifique préalablement exposée, la manière dont les juges se saisissent de ce texte, le but étant de parvenir à une connaissance plus précise et effective de la règle en question. Chacun des éléments qui la composent font donc l’objet d’une analyse détaillée, à savoir, la notion en tant que telle ainsi que son régime. Les résultats obtenus permettent, ensuite, d’adopter une approche synthétique afin de mieux aborder la délicate question de l’articulation entre, d’une part, cet article et, d’autre part, les autres textes qui sanctionnent le déséquilibre significatif. Ils permettent également de proposer des pistes d’amélioration de l’actuel article L. 442-1, notamment dans la perspective d’une prochaine réforme<br>This contribution focuses on the study of the significant imbalance under Article L. 442-1 of the French Commercial Code (formerly Article L. 442-6). The questions it raises are numerous: knowledge and specificity of the regulations in commercial relations, legitimacy of the text, internal coherence of its provisions and putting it into perspective in the global system for fighting the significant imbalance. To answer this question, it is necessary to combine two approaches, one analytical and the other synthetic. The first one is to highlight, by a scientific method previously described, the way in which judges deal with this text. The aim is to achieve a more precise and effective knowledge of the rule in question. Each of its components is therefore the subject of a detailed analysis, namely the concept as such and its system. The results obtained then make it possible to adopt a synthetic approach in order to better address the delicate question of the structure between, on the one hand, this article and, on the other hand, the other texts that sanction the significant imbalance. They also make it possible to propose ways of improving the current Article L. 442-1, particularly with a view to a forthcoming reform
APA, Harvard, Vancouver, ISO, and other styles
17

Ocak, Recai Soner. "Probabilistic Seismic Hazard Assessment Of Eastern Marmara And Evaluation Of Turkish Earthquake Code Requirements." Master's thesis, METU, 2011. http://etd.lib.metu.edu.tr/upload/12613902/index.pdf.

Full text
Abstract:
The primary objective of this study is to evaluate the seismic hazard in the Eastern Marmara Region using improved seismic source models and enhanced ground motion prediction models by probabilistic approach. Geometry of the fault zones (length, width, dip angle, segmentation points etc.) is determined by the help of available fault maps and traced source lines on the satellite images. State of the art rupture model proposed by USGS Working Group in 2002 is applied to the source system. Composite reoccurrence model is used for all seismic sources in the region to represent the characteristic behavior of North Anatolian Fault. New and improved global ground motion models (NGA models) are used to model the ground motion variability for this study. Previous studies, in general, used regional models or older ground motion prediction models which were updated by their developers during the NGA project. New NGA models were improved in terms of additional prediction parameters (such as depth of the source, basin effects, site dependent standard deviations, etc.), statistical approach, and very well constrained global database. The use of NGA models reduced the epistemic uncertainty in the total hazard incorporated by regional or older models using smaller datasets. The results of the study is presented in terms of hazard curves, deaggregation of the hazard and uniform hazard spectrum for six main locations in the region (Adapazari, Duzce, Golcuk, Izmit, Iznik, and Sapanca City Centers) to provide basis for seismic design of special structures in the area. Hazard maps of the region for rock site conditions at the accepted levels of risk by Turkish Earthquake Code (TEC-2007) are provided to allow the user perform site-specific hazard assessment for local site conditions and develop site-specific design spectrum. Comparison of TEC-2007 design spectrum with the uniform hazard spectrum developed for selected locations is also presented for future reference.
APA, Harvard, Vancouver, ISO, and other styles
18

Leverrier, Anthony. "Etude théorique de la distribution quantique de clés à variables continues." Phd thesis, Paris, Télécom ParisTech, 2009. https://theses.hal.science/tel-00451021.

Full text
Abstract:
Cette thèse porte sur la distribution quantique de clés, qui est une primitive cryptographique qui permet à deux correspondants éloignés, Alice et Bob, d'établir une clé secrète commune malgré la présence potentielle d'un espion. On s'intéresse notamment aux protocoles « à variables continues »' où Alice et Bob encodent l'information dans l'espace des phases. L'intérêt majeur de ces protocoles est qu'ils sont faciles à mettre en œuvre car ils ne requièrent que des composants télécom standards. La sécurité de ces protocoles repose sur les lois de la physique quantique : acquérir de l'information sur les données échangées par Alice et Bob induit nécessairement un bruit qui révèle la présence de l'espion. Une étape particulièrement délicate pour les protocoles à variables continues est la « réconciliation » durant laquelle Alice et Bob utilisent leurs résultats de mesure classiques pour se mettre d'accord sur une chaîne de bits identiques. Nous proposons d'abord un algorithme de réconciliation optimal pour le protocole initial, puis introduisons un nouveau protocole qui résout automatiquement le problème de la réconciliation grâce à l'emploi d'une modulation discrète. Parce que les protocoles à variables continues sont formellement décrits dans un espace de Hilbert de dimension infinie, prouver leur sécurité pose des problèmes mathématiques originaux. Nous nous intéressons d'abord à des symétries spécifiques de ces protocoles dans l'espace des phases. Ces symétries permettent de simplifier considérablement l'analyse de sécurité. Enfin, nous étudions l'influence des effets de tailles finies, tels que l'estimation du canal quantique, sur les performances des protocoles<br>This thesis is concerned with quantum key distribution (QKD), a cryptographic primitive allowing two distant parties, Alice and Bob, to establish a secret key, in spite of the presence of a potential eavesdropper, Eve. Here, we focus on continuous-variable protocols, for which the information is coded in phase-space. The main advantage of these protocols is that their implementation only requires standard telecom components. The security of QKD lies on the laws of quantum physics: an eavesdropper will necessary induce some noise on the communication, therefore revealing her presence. A particularly difficult step of continuous-variable QKD protocols is the ``reconciliation'' where Alice and Bob use their classical measurement results to agree on a common bit string. We first develop an optimal reconciliation algorithm for the initial protocol, then introduce a new protocol for which the reconciliation problem is automatically taken care of thanks to a discrete modulation. Proving the security of continuous-variable QKD protocols is a challenging problem because these protocols are formally described in an infinite dimensional Hilbert space. A solution is to use all available symmetries of the protocols. In particular, we introduce and study a class of symmetries in phase space, which is particularly relevant for continuous-variable QKD. Finally, we consider finite size effects for these protocols. We especially analyse the influence of parameter estimation on the performance of continuous-variable QDK protocols
APA, Harvard, Vancouver, ISO, and other styles
19

Leverrier, Anthony. "Etude théorique de la distribution quantique de clés à variables continues." Phd thesis, Télécom ParisTech, 2009. http://tel.archives-ouvertes.fr/tel-00451021.

Full text
Abstract:
Cette thèse porte sur la distribution quantique de clés, qui est une primitive cryptographique permettant à deux correspondants éloignés, Alice et Bob, d'établir une clé secrète commune malgré la présence potentielle d'un espion. On s'intéresse notamment aux protocoles " à variables continues " où Alice et Bob encodent l'information dans l'espace des phases. L'intérêt majeur de ces protocoles est qu'ils sont faciles à mettre en œuvre car ils ne requièrent que des composants télécom standards. La sécurité de ces protocoles repose sur les lois de la physique quantique : acquérir de l'information sur les données échangées par Alice et Bob induit nécessairement un bruit qui révèle la présence de l'espion. Une étape particulièrement délicate pour les protocoles à variables continues est la " réconciliation " durant laquelle Alice et Bob utilisent leurs résultats de mesure classiques pour se mettre d'accord sur une chaîne de bits identiques. Nous proposons d'abord un algorithme de réconciliation optimal pour le protocole initial, puis introduisons un nouveau protocole qui résout automatiquement le problème de la réconciliation grâce à l'emploi d'une modulation discrète. Parce que les protocoles à variables continues sont formellement décrits dans un espace de Hilbert de dimension infinie, prouver leur sécurité pose des problèmes mathématiques originaux. Nous nous intéressons d'abord à des symétries spécifiques de ces protocoles dans l'espace des phases. Ces symétries permettent de simplifier considérablement l'analyse de sécurité. Enfin, nous étudions l'influence des effets de tailles finies, tels que l'estimation du canal quantique, sur les performances des protocoles.
APA, Harvard, Vancouver, ISO, and other styles
20

Hjärner, Karin, and Anna-Lotta Lavin. "Styrelsesammansättningar : En analys utifrån bolagskodens reglering." Thesis, Linköpings universitet, Institutionen för ekonomisk och industriell utveckling, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-72888.

Full text
Abstract:
Bakgrund: Föreskriften den svenska koden för bolagsstyrning (Koden) började år 2005 gälla för svenska börsnoterade bolag med förutsättningen ”följ eller förklara”. Syftet med Koden är att se till att bolagen styrs på ett sådant sätt att de uppfyller ägarnas krav på avkastning på det investerade kapitalet, god bolagsstyrning. I Koden föreskrivs bland annat att styrelsens sammansättning ska präglas av mångsidighet, bredd och att jämn könsfördelning ska eftersträvas. Undersökningar som gjorts om styrelsesammansättningar innan Kodens införande visar att den viktigaste faktorn vid nominering av styrelseledamöter är att personen har VD-erfarenhet. Vilket utrymme föreskriften om mångsidighet, bredd och strävan efter en jämn könsfördelning har fått vid valberedningarnas nominering av ledamöter samt i styrelsernas sammansättning är inget som har undersökts vidare efter Kodens införande. Syfte: Syftet med studien är att kartlägga tre svenska börsbolags styrelsesammansättningar med fokus på mångsidighet och bredd, samt styrelsens representation av män och kvinnor. Detta för att söka förklaringar till valberedningarnas påverkan på sammansättningen, samt hur Kodens föreskrift om mångfald uppfattas i bolagen. Resultatet kan möjliggöra en värdering av bolagskodens rekommendation om mångsidighet, bredd och strävan efter en jämn könsfördelning i styrelsesammansättningen. Metod: En kvalitativ undersökningsmetod används för att förklara och belysas syftet med undersökningen. Metoden ämnar ge en personlig förståelse och syn på om Koden påverkat företagens styrelsesammansättning samt vilken betydelse valberedningen har för sammansättningarna. För att besvara problemställningen och syftet har en dokumentstudie genomförts av tre bolag samt personliga intervjuer med respondenter från respektive företag. Teoretiska perspektiv: Den teoretiska referensramen innefattar mångfaldsteorin, gruppdynamik i team, kvinnliga egenskapers specifika tillförande, antal kvinnor i styrelsen och meritokratiska perspektivet. Empiri: Det empiriska materialet består dels av dokumentstudier av årsredovisningar, valberedningsrapporter och annan dokumentation till årsstämman för tre bolag inom dagligvaru- och detaljhandeln; Hakon Invest, Cloetta och Hemtex, dels av intervjuer med två personer från styrelsen samt en valberedningsrepresentant från respektive bolag. Resultat och slutsatser: Studien påvisar att Kodens föreskrift om valberedningar har haft en indirekt påverkan på styrelsesammansättningarna, då det blivit en mer transparant och vidare nomineringsprocess. Kodens föreskrift om strävan efter en jämn könsfördelning har vidare haft en inverkan på dessa tre bolags styrelsesammansättningar, då valberedningarna tar hänsyn till kön i deras arbete. Övriga mångfaldsfaktorer har inte haft någon markant inverkan på sammansättningen, då det är kompetens i form av VD- och branscherfarenhet som prioriteras vid nominering av styrelseledamöter för att nå ett optimalt beslutsfattande.<br>Background: The regulation of the Swedish Corporate Governance Code (the Code) started in practice with listed Swedish companies, in 2005, with the premise of "comply or explain". The purpose of the Code is to ensure that the companies are controlled in such a way as to meet the demands of the shareholders for return on invested capital and good corporate governance. The Code provides that boards must be characterized by versatility, breadth and gender distribution should be sought. Surveys of boards, before the Code's introduction, show that the main factor in the nomination of directors is that the person has been Chief Executive Officer. The provision of versatility, breadth and the quest for gender distribution when nominating the directors and in the composition of the boards, has not been investigated further after the introduction of the Code. Purpose: The purpose of this study is to identify the boards of three listed Swedish companies with focus on versatility, breadth and the board's representation of both genders. This is to seek explanations for the Nomination Committee's impact on the composition of the board, but also how the Code's provision on diversity is seen in the different companies. The results allow a rating of the Code's recommendation on versatility, breadth and the quest for balance in the composition of the board. Methodology: A qualitative survey method is used to explain and illuminate the aim with this survey. The method's intention is to give a personal understanding and sights about the Swedish Code's influence on the board composition of the companies, which importance the Nominating Committees have for the compositions. A document study and interviews, with the three companies, has been done in order to respond to the problem. Theoretical perspectives: The theoretical framework includes the diversity theory, team group dynamics and contribution of the female characteristics, which includes the number of women in boards with a meritocratic perspective. Empirical foundation: The empirical material consists of document studies of annual reports, committee reports and other documentation of the Annual General Meeting in the three companies in the Retail Trade Industry; Hakon Invest, Cloetta and Hemtex. Moreover, the empirical material is based on interviews with two members of the board and one Nominating Committee representative from each company. Conclusions: The study demonstrates that the Code's provisions for Nominating Committees have had an indirect impact on boards’ composition. Therefore it has become a more transparent and wider nomination process. The Code's provision, on the pursuit of gender balance, has also had an impact on the board compositions of the above-mentioned companies. This is because the Nomination Committees are taking account of gender in their work. Other diversity factors had no significant effect on the composition, because the expertise of a Chief Executive Officer, and industry experience is a priority of the nomination of directors, to reach optimal decisions.
APA, Harvard, Vancouver, ISO, and other styles
21

Gerth, Lutz Martin. "Électrodéposition de cuivre à partir de solutions sulfuriques : mesures locales de la densité de courant dans des cellules à hydrodynamique complexe." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL153N.

Full text
Abstract:
Ce travail se situe dans le cadre d'un programme européen ayant pour objet l'élaboration d'un code de calcul pour la prédiction de distributions de densité de courant, de potentiel et de courant dans un réacteur électrochimique. Notre contribution concerne l'obtention de données expérimentales pour le développement et la validation de ce code: l'exemple de l'électrodéposition de cuivre en milieu sulfaté a été choisi comme réaction test. Dans un premier temps, nous avons déterminé les données physico-chimiques du système considéré ; à l'aide de techniques électrochimiques complémentaires, nous avons mis en évidence l'importance de la préparation de la surface d'électrode. L’ensemble des résultats communiqué à nos partenaires a rendu possible la prédiction de distributions dans différentes configurations. Dans un deuxième temps, les réactions ont été mises en œuvre dans deux cellules électrochimiques dont les géométries répondent aux contraintes fixées écoulement bidimensionnel ou axisymétrique tout en n'étant pas trop éloigné des réacteurs électrochimiques d'intérêt industriel: (i) cellule à plaques parallèles, à écoulement laminaire ou turbulent établi avec ou sans obstacle à l'écoulement et, (ii), cellule de déposition par jet immergé. La procédure de mesure des distributions de courant dans les cellules, au moyen de microélectrodes et d'un systeme d'acquisitions simultanées, a fait l'objet d'une recherche technologique importante. La comparaison, pas toujours aisée, des résultats théoriques et expérimentaux, fait l'objet d'une discussion approfondie
APA, Harvard, Vancouver, ISO, and other styles
22

Paubel, Pascal. "Achats des produits du domaine pharmaceutique dans les établissements publics de santé : bilan au 30 novembre 2008 des réformes du code des marchés publics : de la tarification à l'activité et de la rétrocession." Lille 2, 2009. http://www.theses.fr/2009LIL20002.

Full text
Abstract:
Les établissements publics de santé (EPS) sont soumis pour la totalité de leurs achats aux dispositions du Code des marchés publics (CMP), qui a fait l’objet de plusieurs réformes en 2001, 2004 et 2006, avec des conséquences sur les pratiques des acheteurs hospitaliers. Ce travail présente les principes fondamentaux du CMP, ainsi que l’organisation des achats au sein des EPS. Il traite de l’ensemble des procédures de passation des marchés publics, suite à la publication du décret n°2006-975 du 1er août 2006 (version 2006 du CMP) et de ses textes d’application, ainsi que leur mise en œuvre pratique pour les marchés des médicaments et des dispositifs médicaux. Enfin, ce travail présente les différents modes de financement des médicaments et des dispositifs médicaux dans le cadre de la réforme de la tarification à l’activité, ainsi que la réforme de la rétrocession hospitalière. Une analyse des conséquences de ces réformes pour les achats hospitaliers de médicaments est proposée<br>French public hospitals use for all purchases (works, supplies, services) the rules of public contracts. These procedures were modified in 2001, 2004 and 2006, with consequences for practices of hospitals buyers. This work presents fundamentals principles of procedures for public contracts and the organization of purchases in french public hospitals. The consequences of all procedures described by the directory of 1th August 2006 are analysed for supply of medicines and medical devices. This work presents also different modes of financing for medicines and medical devices after the reform of payments by results and the reform for distribution of medicines to ambulatory patients. Analysis of consequences of these reforms for purchase of medicines is suggested at November 2008
APA, Harvard, Vancouver, ISO, and other styles
23

Lissy, Alexandre. "Utilisation de méthodes formelles pour garantir des propriétés de logiciels au sein d'une distribution : exemple du noyau Linux." Thesis, Tours, 2014. http://www.theses.fr/2014TOUR4019/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons à intégrer dans la distribution Linux produite par Mandriva une assurance qualité permettant de proposer des garanties de propriétés sur le code exécuté. Le processus de création d’une distribution implique l’utilisation de logiciels de provenances diverses pour proposer un assemblage cohérent et présentant une valeur ajoutée pour l’utilisateur. Ceci engendre une moindre maîtrise potentielle sur le code. Un audit manuel permet de s’assurer que celui-Ci présente de bonnes propriétés, par exemple, en matière de sécurité. Le nombre croissant de composants à intégrer, et la croissance de la quantité de code de chacun amènent à avoir besoin d’outils pour permettre une assurance qualité. Après une étude de la distribution nous choisissons de nous concentrer sur un paquet critique, le noyau Linux : nous proposons un état de l’art des méthodes de vérifications appliquées à ce contexte particulier, et identifions le besoin d’améliorer la compréhension de la structure du code source, la question de l’explosion combinatoire et le manque d’intégration des outils d’analyse de l’état de l’art. Pour répondre à ces besoins nous proposons une représentation du code source sous la forme d’un graphe, et l’utilisons pour aider à la documentation et à la compréhension de l’architecture du code. Des méthodes de détection de communautés sont évaluées sur ce cas pour répondre au besoin de l’explosion combinatoire. Enfin nous proposons une architecture intégrée dans le système de construction de la distribution permettant d’intégrer des outils d’analyse et de vérification de code<br>In this thesis we are interested in integrating to the Linux distribution produced by Mandriva quality assurance level that allows ensuring user-Defined properties on the source code used. The core work of a distribution and its producer is to create a meaningful aggregate from software available. Those softwares are free and open source, hence it is possible to adapt it to improve end user’s experience. Hence, there is less control over the source code. Manual audit can of course be used to make sure it has good properties. Examples of such properties are often referring to security, but one could think of others. However, more and more software are getting integrated into distributions and each is showing an increase in source code volume: tools are needed to make quality assurance achievable. We start by providing a study of the distribution itself to document the current status. We use it to select some packages that we consider critical, and for which we can improve things with the condition that packages which are similar enough to the rest of the distribution will be considered first. This leads us to concentrating on the Linux kernel: we provide a state of the art overview of code verification applied to this piece of the distribution. We identify a need for a better understanding of the structure of the source code. To address those needs we propose to use a graph as a representation of the source code and use it to help document and understand its structure. Specifically we study applying some state of the art community detection algorithm to help handle the combinatory explosion. We also propose a distribution’s build system-Integrated architecture for executing, collecting and handling the analysis of data produced by verifications tools
APA, Harvard, Vancouver, ISO, and other styles
24

Van, Assche Gilles. "Information-Theoretic aspects of quantum key distribution." Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211050.

Full text
Abstract:
<p>La distribution quantique de clés est une technique cryptographique permettant l'échange de clés secrètes dont la confidentialité est garantie par les lois de la mécanique quantique. Le comportement particulier des particules élémentaires est exploité. En effet, en mécanique quantique, toute mesure sur l'état d'une particule modifie irrémédiablement cet état. En jouant sur cette propriété, deux parties, souvent appelées Alice et Bob, peuvent encoder une clé secrète dans des porteurs quantiques tels que des photons uniques. Toute tentative d'espionnage demande à l'espion, Eve, une mesure de l'état du photon qui transmet un bit de clé et donc se traduit par une perturbation de l'état. Alice et Bob peuvent alors se rendre compte de la présence d'Eve par un nombre inhabituel d'erreurs de transmission.</p><p><p><p>L'information échangée par la distribution quantique n'est pas directement utilisable mais doit être d'abord traitée. Les erreurs de transmissions, qu'elles soient dues à un espion ou simplement à du bruit dans le canal de communication, doivent être corrigées grâce à une technique appelée réconciliation. Ensuite, la connaissance partielle d'un espion qui n'aurait perturbé qu'une partie des porteurs doit être supprimée de la clé finale grâce à une technique dite d'amplification de confidentialité.</p><p><p><p>Cette thèse s'inscrit dans le contexte de la distribution quantique de clé où les porteurs sont des états continus de la lumière. En particulier, une partie importante de ce travail est consacrée au traitement de l'information continue échangée par un protocole particulier de distribution quantique de clés, où les porteurs sont des états cohérents de la lumière. La nature continue de cette information implique des aménagements particuliers des techniques de réconciliation, qui ont surtout été développées pour traiter l'information binaire. Nous proposons une technique dite de réconciliation en tranches qui permet de traiter efficacement l'information continue. L'ensemble des techniques développées a été utilisé en collaboration avec l'Institut d'Optique à Orsay, France, pour produire la première expérience de distribution quantique de clés au moyen d'états cohérents de la lumière modulés continuement.</p><p><p><p>D'autres aspects importants sont également traités dans cette thèse, tels que la mise en perspective de la distribution quantique de clés dans un contexte cryptographique, la spécification d'un protocole complet, la création de nouvelles techniques d'amplification de confidentialité plus rapides à mettre en œuvre ou l'étude théorique et pratique d'algorithmes alternatifs de réconciliation.</p><p><p><p>Enfin, nous étudions la sécurité du protocole à états cohérents en établissant son équivalence à un protocole de purification d'intrication. Sans entrer dans les détails, cette équivalence, formelle, permet de valider la robustesse du protocole contre tout type d'espionnage, même le plus compliqué possible, permis par les lois de la mécanique quantique. En particulier, nous généralisons l'algorithme de réconciliation en tranches pour le transformer en un protocole de purification et nous établissons ainsi un protocole de distribution quantique sûr contre toute stratégie d'espionnage.</p><p><p><p>Quantum key distribution is a cryptographic technique, which allows to exchange secret keys whose confidentiality is guaranteed by the laws of quantum mechanics. The strange behavior of elementary particles is exploited. In quantum mechnics, any measurement of the state of a particle irreversibly modifies this state. By taking advantage of this property, two parties, often called Alice and bob, can encode a secret key into quatum information carriers such as single photons. Any attempt at eavesdropping requires the spy, Eve, to measure the state of the photon and thus to perturb this state. Alice and Bob can then be aware of Eve's presence by a unusually high number of transmission errors.</p><p><p><p>The information exchanged by quantum key distribution is not directly usable but must first be processed. Transmission errors, whether they are caused by an eavesdropper or simply by noise in the transmission channel, must be corrected with a technique called reconciliation. Then, the partial knowledge of an eavesdropper, who would perturb only a fraction of the carriers, must be wiped out from the final key thanks to a technique called privacy amplification.</p><p><p><p>The context of this thesis is the quantum key distribution with continuous states of light as carriers. An important part of this work deals with the processing of continuous information exchanged by a particular protocol, where the carriers are coherent states of light. The continuous nature of information in this case implies peculiar changes to the reconciliation techniques, which have mostly been developed to process binary information. We propose a technique called sliced error correction, which allows to efficiently process continuous information. The set of the developed techniques was used in collaboration with the Institut d'Optique, Orsay, France, to set up the first experiment of quantum key distribution with continuously-modulated coherent states of light.</p><p><p><p>Other important aspects are also treated in this thesis, such as placing quantum key distribution in the context of a cryptosystem, the specification of a complete protocol, the creation of new techniques for faster privacy amplification or the theoretical and practical study of alternate reconciliation algorithms.</p><p><p><p>Finally, we study the security of the coherent state protocol by analyzing its equivalence with an entanglement purification protocol. Without going into the details, this formal equivalence allows to validate the robustness of the protocol against any kind of eavesdropping, even the most intricate one allowed by the laws of quantum mechanics. In particular, we generalize the sliced error correction algorithm so as to transform it into a purification protocol and we thus establish a quantum key distribution protocol secure against any eavesdropping strategy.</p><br>Doctorat en sciences appliquées<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
25

Tirler, Günter, and Josef Leydold. "Automatic Nonuniform Random Variate Generation in R." Department of Statistics and Mathematics, Abt. f. Angewandte Statistik u. Datenverarbeitung, WU Vienna University of Economics and Business, 2003. http://epub.wu.ac.at/382/1/document.pdf.

Full text
Abstract:
Random variate genration is an important tool in statistical computing. Many programms for simulation or statistical computing (e.g. R) provide a collection of random variate generators for many standard distributions. However, as statistical modeling has become more sophisticated there is demand for larger classes of distributions. Adding generators for newly required distribution seems not to be the solution to this problem. Instead so called automatic (or black-box) methods have been developed in the last decade for sampling from fairly large classes of distributions with a single piece of code. For such algorithms a data about the distributions must be given; typically the density function (or probability mass function), and (maybe) the (approximate) location of the mode. In this contribution we show how such algorithms work and suggest an interface for R as an example of a statistical library. (author's abstract)<br>Series: Preprint Series / Department of Applied Statistics and Data Processing
APA, Harvard, Vancouver, ISO, and other styles
26

Prum, Rithy. "La place de la coutume en droit de la famille cambodgien : le couple." Thesis, Lyon 3, 2015. http://www.theses.fr/2015LYO30037/document.

Full text
Abstract:
Ce travail porte sur l’étude de la construction du droit civil cambodgien : le code civil de 2007. Ce code civil est le fruit de la combinaison entre la coutume cambodgienne et le droit romano-germanique. Au travers de l'histoire du droit cambodgien, on constate que la civilisation cambodgienne a toujours été une civilisation traditionnelle. La tradition khmère est le résultat d’un mélange entre les religions (hindouisme et bouddhisme) et la croyance des âmes (animisme). Elles persistent encore aujourd’hui et sont un des fondements du droit khmer ancien. En matière de droit de la famille cambodgienne, la coutume a toujours montré un rôle important par rapport au droit positif dans la société cambodgienne, même après l’entrée en application du code civil de 2012. Il est nécessaire d'analyser les enjeux de la place de la coutume en concurrence avec le nouveau droit positif dans le domaine du droit de la famille, notamment sur la formation de couple, la gestion des biens de couple et la liquidation successorale<br>This research aims to study the construction of the Cambodian Civil Law through the Civil Code of 2007. This Cambodian Civil Code has been the result of the combination between its own custom and Romano-Germanic Legal Systems.Through history of Cambodian legal system, we observe that the Cambodian Civilization has always been a traditionnal civilization. Khmer Tradition is the result of the mixture between two religions (Hinduism and Buddhism) and the belief of souls (Animism). To date, This tradition still exist and become a corenerstone of the Ancient Khmer Law.Regarding to the Camobodian Family Law, the Custom has always shown an important role as compared to the substantive law in Cambodian society, even after the Civil Code has taken effect in 2012. It’s necessary to analyze the role of Custom regarding the new positive law in the Family Law field, including torque training and particularly the management of goods and torque succesorale liquidation
APA, Harvard, Vancouver, ISO, and other styles
27

Smola, Luděk. "Rozložení výkonu a teplot v palivových souborech reaktoru VVER-440 na Elektrárně Dukovany." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2016. http://www.nusl.cz/ntk/nusl-242044.

Full text
Abstract:
This Master’s thesis focuses on calculation of power and temperature distribution in fuel assemblies of VVER-440 reactor at Dukovany Nuclear Power Plant. Theoretical section contains a brief description of VVER-440 technology, fuel and its development at Dukovany Nuclear Power Plant, basics of heat generation in nuclear reactors as well as an overview and categorization of computer codes, used for core calculations. Of these codes, the MOBY-DICK computer code is then described in depth, including its input and output files. The MOBY-DICK code is later on used for pinwise calculating power distribution of selected fuel cycles of defined units at Dukovany Nuclear Power Plant, with vizualization of output values for characteristic fuel assemblies. Results of this computation are then used for analysis, whether uneven power distribution in the core and heat generation gradient within fuel assemblies have any influence on measuring channel output temperatures, which is the pivotal part of this thesis.
APA, Harvard, Vancouver, ISO, and other styles
28

Diaw, Abdourahmane. "Étude théorique et numérique de l'expansion dans le vide d'un plasma créé par laser : cas d'une fonction de distribution des électrons bi-Maxwellienne." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00789762.

Full text
Abstract:
Cette thèse constitue une étude théorique et numérique de la détente d'un plasma dans le vide. Elle fournit une compréhension globale des mécanismes d'expansion de plasmas avec une fonction de distribution des électrons bi-Maxwellienne (avec une température d'électrons " chaude " et une température " froide "). Dans la première partie, on étudie les caractéristiques (amplitude, position, structure microscopique, etc) du choc de raréfaction qui apparaît dans le plasma si le rapport des températures chaude et froide est supérieure à 9.9. Cette étude est réalisée avec un modèle semi-infini; le plasma est une source infinie de particules et d'énergie. Les expressions analytiques des grandeurs de l'écoulement sont établies. Le comportement de la structure du plasma pour les différents régimes d'expansion est précisé. Les effets du choc de raréfaction sur l'accélération des ions sont brièvement étudiés. Les simulations numériques effectuées avec un code hybride 1-D sont comparés aux résultats du modèle analytique. Dans la seconde partie, on évoque l'expansion d'une feuille mince avec un code cinétique unidimensionnel. Contrairement au modèle de plasma semi-infini, la fonction de distribution des électrons n'est pas maintenue Maxwellienne dans le temps, mais sa dynamique est gouvernée par l'équation de Vlasov. Cette description permet de tenir compte des transferts d'énergie entre les composantes chaude, froide et les ions. Les résultats de ce code sont utilisés pour comprendre le chauffage initial des électrons froids qui se produit dans les plasmas dominés initialement par les électrons chauds. Une expression de la température froide au cours de l'accélération de l'onde de raréfaction est établie. Pour un plasma avec des paramètres initiaux similaires à ceux obtenus lors de l'interaction d'une impulsion laser ultra-intense avec une cible, on met en évidence un refroidissement global des électrons sur des échelles de temps différentes, puis une réduction de l'amplitude du choc de raréfaction (et du creusement du spectre des ions).
APA, Harvard, Vancouver, ISO, and other styles
29

Schulte, Lukas. "Investigating topic modeling techniques for historical feature location." Thesis, Karlstads universitet, Institutionen för matematik och datavetenskap (from 2013), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-85379.

Full text
Abstract:
Software maintenance and the understanding of where in the source code features are implemented are two strongly coupled tasks that make up a large portion of the effort spent on developing applications. The concept of feature location investigated in this thesis can serve as a supporting factor in those tasks as it facilitates the automation of otherwise manual searches for source code artifacts. Challenges in this subject area include the aggregation and composition of a training corpus from historical codebase data for models as well as the integration and optimization of qualified topic modeling techniques. Building up on previous research, this thesis provides a comparison of two different techniques and introduces a toolkit that can be used to reproduce and extend on the results discussed. Specifically, in this thesis a changeset-based approach to feature location is pursued and applied to a large open-source Java project. The project is used to optimize and evaluate the performance of Latent Dirichlet Allocation models and Pachinko Allocation models, as well as to compare the accuracy of the two models with each other. As discussed at the end of the thesis, the results do not indicate a clear favorite between the models. Instead, the outcome of the comparison depends on the metric and viewpoint from which it is assessed.
APA, Harvard, Vancouver, ISO, and other styles
30

Filho, André Luiz Marcassa. "Técnica da distribuição dinâmica do ônus da prova e a efetividade no processo civil." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/2/2137/tde-11042016-090521/.

Full text
Abstract:
O presente estudo examina a técnica da distribuição dinâmica do ônus da prova e a possibilidade de sua aplicação no direito brasileiro, incluindo a sua disciplina no Projeto do Novo Código de Processo Civil. Abordaremos as bases principiológicas da dinamização dos ônus probatórios, bem como os entendimentos doutrinários e jurisprudenciais que já sustentam a possibilidade da dinamização do ônus da prova com base no ordenamento jurídico atualmente vigente. Sustentaremos, todavia, que a adoção da técnica da dinamização do ônus da prova no ordenamento jurídico brasileiro seria cabível somente de lege ferenda, com a aprovação do Projeto do Novo CPC pelo Congresso Nacional. Por fim, no intuito de estabelecer os melhores critérios para utilização da técnica da distribuição dinâmica do ônus da prova, foram analisados os dispositivos contidos no Projeto do Novo CPC, para vislumbramos que a aplicação da técnica, deverá ser excepcional. Analisamos ainda que o magistrado brasileiro deverá aprimorar a sua função de organizador da fase instrutória do processo. Sustentaremos que a técnica da dinamização do ônus da prova é suplementar aos poderes instrutórios do juiz. Todavia, como existem limites materiais, de cunho prático, ao exercício dos poderes instrutórios do magistrado, a técnica da distribuição dinâmica do ônus da prova se mostra útil e eficaz ao sistema processual brasileiro. Assim, o juiz deverá se valer na sentença da técnica da dinamização do ônus da prova em desfavor da parte que deu causa à dificuldade ou impossibilidade de produção da prova, inviabilizando o acesso a determinado meio de prova.<br>The following essay examines the theory of dynamic distribution of the burden of proof and the possibility of its application in Brazilian law, including its discipline in the Project of the New Code of Civil Procedure. We will cover the principles related to the dynamic distribution of the burden of proof as well as the doctrinal and caselaw understanding that already support the possibility of the switch of the burden of proof based on the currently prevailing legal system. However, we will argue that the adoption of dynamic distribution of the burden of proof in Brazilian law would be applicable only by lege ferenda, with the approval of the New Code of Civil Procedure by the Congress. Finally, in order to establish the best criteria for use of the dynamic distribution of the burden of proof, the provisions contained in the Project of the New Code of Civil Procedure were analyzed to envision that the application of the technique should be exceptional. We will also analyze that the Brazilian judge should enhance its organizer function of proceedings phase. We will still sustain that the dynamic distribution of the burden of proof is additional in relation to the powers that the judge has in the ex officio proofs production. However, as there are material limits of the exercise of the Judges power in the ex officio proofs production, the technique of the the dynamic distribution of the burden of proof proves to be useful and effective in Brazilian legal system. Thus, the judge must take into consideration the techniques of the switch of the burden of proof, on the judgment, to the detriment of the party that gave rise to the difficulty or impossibility of evidence, preventing access to certain evidence.
APA, Harvard, Vancouver, ISO, and other styles
31

Coelho, Thomas LÃvio Santos. "Estudo da variaÃÃo da Ãrea de preservaÃÃo permanente do reservatÃrio OrÃs-CE associada Ãs alteraÃÃes do cÃdigo florestal." Universidade Federal do CearÃ, 2016. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=16692.

Full text
Abstract:
O estudo de variaÃÃo de Ãrea de preservaÃÃo permanente do reservatÃrio OrÃs utilizou o software ArcGis 10.2 para a modelagem computacional, a delimitaÃÃo foi realizada conforme os referenciais legais da atual legislaÃÃo ambiental (Lei 12.651/2012) e da anterior (Lei 4.771/65) comparativamente, quanto a referÃncia altimÃtrica estabelecida pela atual legislaÃÃo, utilizou-se a cota mÃxima maximorum original do projeto de 1960, e uma cota mÃxima maximorum modelada estatisticamente a partir de dados pluviomÃtricos atuais, quanto a referÃncia altimÃtrica estabelecida pela legislaÃÃo anterior modelou-se um Buffer de 100 metros medidos a partir da cota mÃxima operativa normal, assim comparando-se a restritividade ou a permissividade da legislaÃÃo em vigor. A modelagem de atualizaÃÃo de cota mÃxima maximorum para determinaÃÃo da Ãrea de preservaÃÃo permanente do reservatÃrio OrÃs se deu por meio de processos estatÃsticos, utilizando distribuiÃÃes de probabilidade, dentre as quais oito tipos foram selecionadas: Weibull 3 ParÃmetros, Menores Valores Extremos, Weibull, LogÃstica, Normal, Gamma, LogNormal e Maiores Valores Extremos. O desempenho destas foram avaliados pelo nÃvel de confianÃa, este estabelecido em 95% e quanto a aderÃncia pelo mÃtodo de Anderson Darling, destacando-se a distribuiÃÃo do tipo Weibull 3 ParÃmetros, a qual obteve o melhor desempenho global, modelando uma cota mÃxima maximorum de 208 metros, um metro a cima da estabelecida pelo projeto original. Estabelecido os referenciais, iniciou-se a modelagem computacional das APPâs, identificou-se que a atual legislaÃÃo, referenciada pela cota mÃxima maximorum do projeto original do DNOCS, Ã menos restritiva do que a legislaÃÃo anterior, prever uma Ãrea 26% menor do que a delimitada pela legislaÃÃo anterior, promovendo alteraÃÃes quanto a definiÃÃo territorial dos municÃpios contemplados pelo reservatÃrio. Assim, foram observados ganhos de APP em alguns municÃpios e em outros, perda, processo este nÃo ocorrendo de forma homogÃnea.<br>The study of ranging permanent preservation areas of OrÃs reservoir, used the ArcGIS 10.2 software for computer modeling, the delimitation was carried out according to legal references of current environmental legislation, and the previous legislation, using altimetry reference established by current legislation, was used two altimetric elevations, the maximum maximorum quota of original project 1960, and a maximum maximorum quota statistically modeled from current rainfall data, using altimetry reference established by previous legislation was modeled one buffer of 100 meters measured from the maximum normal operating height, so it was possible to compare the restrictiveness or permissiveness of the legislation. Modeling maximum maximorum quota update to determine the area of permanent preservation of OrÃs reservoir was through statistical process using probability distributions, among which eight types were selected: Weibull three parameters, Minor Values Extremes, Weibull, Logistics, Normal, Gamma, lognormal and Largest Values Extremes. The performance of these distributions were evaluated by confidence level, this posted at 95% and the adherence by Anderson Darling method, highlighting the type distribution Weibull three parameters, which obtained the best overall performance, modeling a maximum maximorum quota of 208 meters, one meter above the established by the original project. Established the demarcation reference, began the computational modeling of the APPs, it was identified that the current legislation by reference to the maximum maximorum quota of the original project of DNOCS, is less restrictive than the previous legislation establishes an area 26% smaller that established by previous legislation, promoting changes as the territorial definition of the municipalities covered by the reservoir. Thus, APP gains were observed in some municipalities and other municipalities was observed loss of APP, the process does not occur homogeneously.
APA, Harvard, Vancouver, ISO, and other styles
32

Zanotti, Jean-Pierre. "Codes a distribution de poids equilibre." Toulon, 1995. http://www.theses.fr/1995TOUL0001.

Full text
Abstract:
Nous etudions principalement une nouvelle famille de codes cycliques irreductibles possedant une propriete remarquable, leur distribution de poids est equilibree (codes dpe). Nous caraterisons ces codes et nous montrons que leurs poids ne dependent que de sommes de gauss evaluees en des caracteres d'un groupe particulier. Nous etudions aussi leurs proprietes combinatoires remarquables, notamment nous montrons que ces codes definissent des schemas d'association cyclotomiques. Une etude specifique des sommes de gauss nous permet de calculer les poids sur toute extension de gf(q) a partir de la connaissance des poids du plus petit code sur le corps premier gf(p). Nous explicitons aussi le comportement asymptotique des poids au regard de la borne de weil-serre dans ce sens ou ces poids sont lies aux nombres de points rationnels de certaines courbes d'artin-schreier
APA, Harvard, Vancouver, ISO, and other styles
33

Фещенко, Максим Дмитрович. "Організаційно-технічні засади підключення споживачів до електричних мереж оператора системи розподілу". Master's thesis, КПІ ім. Ігоря Сікорського, 2020. https://ela.kpi.ua/handle/123456789/40795.

Full text
Abstract:
Актуальність теми. Одним з шляхів розвитку електричних мереж на території України є підключення нових побутових та промислових споживачів, а саме реконструкція існуючих ліній для дотримання рівня якості електроенергії. Основними проблемами є: - непрозорість надання послуг з приєднання електричних установок до електричних мереж; (Основною проблемою приєднання є те що, вам ніколи ніхто точно не скаже зразу – скільки коштуватиме приєднання до електричної мережі з певної точки на карті і за який час це буде виконано. Це явище створює можливості для «торгів» з клієнтами для «вичавлювання» з них максимальної економічної вигоди». Саме через це багато іноземних інвесторів переносить своє виробництво до інших країн). - непрозора процедура визначення плати за приєднання до електричних мереж; (Плата за приєднання має бути недискримінаційною та прозорою, а також публікуватися у відкритому доступі. – з такими умовами кожен зможе підрахувати ціну з точністью до 90-95%, але залишається питання прозорості. Зараз замовнику можуть поставити вимоги які рівні, або й перевищують ціну звичайного приєднання) - невідповідність законодавства України законодавству ЄС; (Після підписання Президентом України закону про «Про ринок електричної енергії» стартував дворічний перехід, під час якого всю архітектуру ринку перебудують у відповідність до правил, які працюють в ЄС. В галузі повинна з’явитися конкуренція і зникнути перехресне субсидіювання) Та ще багато інших проблем, які будуть розглянуті в цій роботі, тож я вважаю що тема досить актуальна. За результатами аналізу технічного стану енергетичної галузі України встановлюємо її незадовільний технічний стан та організацію експлуатації, що впливає на подальший розвиток економіки країни та життєвий рівень населення. Відповідно до міжнародних зобов’язань Україна має забезпечити розвиток бізнесу (зокрема підняття свого рейтингу Doing Business), адже на сьогодні рівень України ще не задовольняє інтереси суспільства. Для забезпечення належного рівня України принциповим питанням є спрощення процедури та пошук оптимальності приєднання до електричних мереж. Мета та завдання досліджень. Полягає у огляді та вирішення питань стосовно підвищення ефективності функціонування мереж електропередавальних організацій в частині приєднання споживачів до електричних мереж шляхом організаційно-управлінських, технікоекономічних, нормативно-правових, екологічних та технологічних питань. Об’єкт дослідження – процеси організації приєднання споживачів до електричних мереж електропередавальної організації. Предмет дослідження – методи підвищення ефективності організації приєднання. Методи дослідження. Методологічну основу проведеного наукового дослідження склали такі методи: нечітка логіка (теорія масового обслуговування), кластерний аналіз даних трансформаторних підстанцій, математично-фізичні розрахунки. Наукова та практична цінність роботи полягає у проведенні дослідження організаційно-управлінських, техніко-економічних, нормативно-правових, екологічних та технологічних питань, формуванні пропозиції по підвищенню ефективності діяльності електропередавальної організації щодо приєднання споживачів до електричних мереж, а також у розробці пропозицій запровадження геоінформаційної системи управління розвитком та експлуатацією об’єктів енергетики в Україні.<br>Actuality of theme. One of the ways to develop electricity networks in Ukraine is to connect new household and industrial consumers, namely the reconstruction of existing lines to meet the level of electricity quality. The main problems are: - non-transparency of electricity connection services installations to electric networks; (The main problem with joining is that, you never have exactly anyone will tell at once - how much will cost connection to an electric network with a certain point on the map and how long it will take. This phenomenon creates opportunities to "bid" with customers to "squeeze" out of them maximum economic benefit ". That is why many foreigners investors transfers their production to other countries). - non-transparent procedure for determining the fee for connection to the electricity grid; (The accession fee should be non - discriminatory and transparent, and also be published in the public domain. - with such conditions everyone will be able to calculate the price with an accuracy of 90-95%, but remains issues of transparency. Now the customer can set requirements which equal to, or exceed the cost of a conventional connection) - inconsistency of Ukrainian legislation with EU legislation; (After the President of Ukraine signed the law on the electricity market, a two-year transition began, during which the entire market architecture will be rebuilt in accordance with the rules in force in the EU. Competition should appear in the industry and cross-subsidization should disappear) Yes, there are many other issues that will be considered in this paper, so I think that the topic is quite relevant. Based on the results of the analysis of the technical condition of the energy industry of Ukraine, we establish its unsatisfactory technical condition and organization exploitation, which affects the further development of the country's economy and living standards of the population. In accordance with Ukraine's international obligations should ensure business development (including raising its Doing rating) Business), because today the level of Ukraine does not satisfy the interests society. To ensure the proper level of Ukraine in principle the question is to simplify the procedure and find the optimal connection to electrical networks. The purpose and objectives of research. It consists in reviewing and resolving issues related to improving the efficiency of networks of electricity transmission organizations in terms of connecting consumers to electricity networks through organizational and managerial, technical and economic, regulatory, environmental and technological issues. The object of research - the processes of organization of connection of consumers to the electrical networks of the power transmission organization. The subject of research - methods to increase the efficiency of the organization of accession. Research methods. The methodological basis of the conducted research was the following methods: fuzzy logic (queuing theory), cluster analysis of transformer substation data, mathematical and physical calculations. The scientific and practical value of the work lies in the study of organizational and managerial, technical and economic, regulatory, environmental and technological issues, the formation of proposals to improve the efficiency of the transmission organization to connect consumers to electricity networks, as well as the development of proposals for geographic information management system development and operation of energy facilities in Ukraine.
APA, Harvard, Vancouver, ISO, and other styles
34

Ma, Kin-Keung. "Infinite prefix codes for geometric distributions /." View abstract or full-text, 2004. http://library.ust.hk/cgi/db/thesis.pl?COMP%202004%20MA.

Full text
Abstract:
Thesis (M. Phil.)--Hong Kong University of Science and Technology, 2004.<br>Includes bibliographical references (leaves 74-76). Also available in electronic version. Access restricted to campus users.
APA, Harvard, Vancouver, ISO, and other styles
35

Parke, Teresia, and Theres Vidman. "Verkan på befintliga servitut vid fastighetsbildning : En studie av lagstiftningen och den praktiska tillämpningen." Thesis, Högskolan i Gävle, Avdelningen för Industriell utveckling, IT och Samhällsbyggnad, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:hig:diva-11386.

Full text
Abstract:
Syftet med denna uppsatts är att utreda hur befintliga servitut påverkas vid fastighetsbildning– vad som gäller enligt svenskt regelverk och hur det tillämpas praktiskt. Fastighetsbildning innebär förändring av fastigheter, genom antingen nybildning eller ombildning. Ett servitut är en begränsad rättighet som är belägen på en fastighet, som belastas av rättigheten, och som får nyttjas av en annan fastighet, som har förmån av rättigheten. I samband med fastighetsbildning kan befintliga servitut komma att påverkas på olika sätt. De metoder som använts är: (1) en litteraturgranskning där den svenska lagstiftningen studeras; (2) en fallstudie där utförda förrättningar studerats om huruvida befintliga servitut påverkats vid fastighetsbildning och (3) en intervjustudie med yrkesverksamma förrättningslantmätare som arbetar på Lantmäteriet. Undersökt litteratur visar att Jordabalken och Fastighetsbildningslagen reglerar hur befintliga servitut påverkas vid fastighetsbildning. Utredningen visar att olika typer av servitut påverkas på olika sätt, och att olika lagrum tillämpas för olika typer av fastighetsbildningsåtgärder. Resultaten från litteraturstudien presenteras i en sammanställning som kallas Lagrumsguide för hantering av befintliga servitut vid fastighetsbildning. Fallstudien uppvisar att följderna för verkan på servitut vid fastighetsbildning grundas på lagstiftningen, men det är ovanligt att laghänvisningar anges i förrättningsakterna. I intervjustudien framkommer att Lantmäteriet har egna riktlinjer för hantering av servitut, men att riktlinjerna inte direkt visar vilka lagrum som hanteringen grundar sig på. Studien uppvisar att den praktiska hanteringen av befintliga servitut vid fastighetsbildning fungerar väl inom Lantmäteriet, med undantag för att det råder tolkningssvårigheter av vissa begrepp. Lagrumsguiden som skapades kan ses som ett komplement för att underlätta arbetet för många yrkesverksamma förrättningslantmätare och vara behjälplig i utbildningssyfte, eftersom lantmätarna inte alltid är säkra på vilka lagrum som faktiskt tillämpas.<br>The purpose of this thesis is to investigate how existing easements are affected when a property is reforming, according to Swedish real estate law and how the easements actually are dealt with in practice. Property formation implies modification of property, either as creation of new property units or the change of already existing properties. An easement is a limited property right, located on a property which serves another property with an advantageous right to utilize this located area in a specific way. In connection with property formation, existing easements can be affected in different ways. The methods used are: (1) a literature study of the Swedish Real Estate Law with connected literature; (2) a case study of authority documents, in which affections of existing easements within property formation are studied; and (3) an interview study in which interviews are performed with land surveyors from the Swedish Ordnance Survey (Lantmäteriet).  The results from the literature review show that different forms of easements can be affected diversely according to the Swedish Land Code (Jordabalken) and the Real Property Formation Act (Fastighetsbildningslagen), and different sections of the law are relevant for different kinds of property formation. The results from the literature study have been summarized in a quick reference guide, called Guide to sections of law for handling of existing easements within real property formation. The case study shows that the effects of the easements within property formation are grounded in the legislation, but it is unusual with references to sections of the law in the authority documents. The interview study shows that Lantmäteritet has its own guidelines for handling of the easements, but it does not show which sections of law the handling is based on. This study shows that most of the practical handling of existing easements when property is reformed is well-operated within Lantmäteriet, with the exception of some translation confusions regarding certain concepts. The reference guide which has been created can be used as a facilitating supplement for many land surveyors in their work, and that it can be helpful in education, as not everyone is sure of which part of the law that is actually used in the decisions.
APA, Harvard, Vancouver, ISO, and other styles
36

Pickavance, Keith. "Weight enumerators and weight distribution of KM codes." Thesis, University of Glasgow, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.362947.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

XAVIER, GUILHERME BARRETO. "MODULATION SCHEMES FOR FREQUENCY CODED QUANTUM KEY DISTRIBUTION." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2005. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=6483@1.

Full text
Abstract:
COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR<br>A criptografia quântica foi proposta como uma solução para o problema da distribuição de chaves criptográficas com segurança total garantida pelos princípios da mecânica quântica. Através dessa técnica é possível saber se um espião tentou interceptar a transmissão, o que é impossível utilizando técnicas de transmissão clássicas. Nesse trabalho foi feito um breve resumo da teoria de criptografia quântica, de suas técnicas de transmissão e dos problemas tecnológicos enfrentados. Foi analisada em detalhes a técnica de transmissão de qubits utilizando codificação de freqüência e feita uma comparação dos diferentes esquemas de modulação frente aos protocolos BB84 e B92. Foi demonstrado que os dois esquemas de modulação existentes (AM-AM e PM-PM) são na realidade equivalentes e foi proposto um novo esquema, o AM-PM o único que suporta o protocolo BB84 clássico. Medidas foram realizadas classicamente nos formatos AM-AM e AM-PM.<br>Quantum cryptography has been proposed as a solution to the cryptographic key distribution problem with absolute security guaranteed by the principles of quantum mechanics. Through this scheme it is possible to find out whether a spy tried to eavesdrop on the transmission, which was impossible to discover using classical transmission techniques. In this work a brief review of quantum cryptography theory, transmission techniques and technological problems involved were performed. It was analyzed in detail the transmission technique employing frequency coding, and a comparison was made between the different modulation schemes and the BB84 and B92 protocols. It was demonstrated that the two existing modulation formats (AM-AM and PM-PM) are in fact equivalent and a new format (AM-PM) was proposed, the only one able to accommodate classical BB84. Classical measurements were performed on the AM-AM and AMPM formats.
APA, Harvard, Vancouver, ISO, and other styles
38

Baligh, Mohammadhadi. "Analysis of the Asymptotic Performance of Turbo Codes." Thesis, University of Waterloo, 2006. http://hdl.handle.net/10012/883.

Full text
Abstract:
Battail [1989] shows that an appropriate criterion for the design of long block codes is the closeness of the normalized weight distribution to a Gaussian distribution. A subsequent work shows that iterated product of single parity check codes satisfy this criterion [1994]. Motivated by these earlier works, in this thesis, we study the effect of the interleaver on the performance of turbo codes for large block lengths, $N\rightarrow\infty$. A parallel concatenated turbo code that consists of two or more component codes is considered. We demonstrate that for $N\rightarrow\infty$, the normalized weight of the systematic $\widehat{w_1}=\displaystyle\frac{w_1}{\sqrt{N}}$, and the parity check sequences $\widehat{w_2}=\displaystyle\frac{w_2}{\sqrt{N}}$ and $\widehat{w_3}=\displaystyle\frac{w_3}{\sqrt{N}}$ become a set of jointly Gaussian distributions for the typical values of $\widehat{w_i},i=1,2,3$, where the typical values of $\widehat{w_i}$ are defined as $\displaystyle\lim_{N\rightarrow\infty}\frac{\widehat{w_i}}{\sqrt{N}}\neq 0,1$ for $i=1,2,3$. To optimize the turbo code performance in the waterfall region which is dominated by high-weight codewords, it is desirable to reduce $\rho_{ij}$, $i,j=1,2,3$ as much as possible, where $\rho_{ij}$ is the correlation coefficient between $\widehat{w_i}$ and $\widehat{w_j}$. It is shown that: (i)~$\rho_{ij}>0$, $i,j=1,2,3$, (ii)~$\rho_{12},\rho_{13}\rightarrow 0$ as $N\rightarrow\infty$, and (iii)~$\rho_{23}\rightarrow 0$ as $N\rightarrow\infty$ for "almost" any random interleaver. This indicates that for $N\rightarrow\infty$, the optimization of the interleaver has a diminishing effect on the distribution of high-weight error events, and consequently, on the error performance in the waterfall region. We show that for the typical weights, this weight distribution approaches the average spectrum defined by Poltyrev [1994]. We also apply the tangential sphere bound (TSB) on the Gaussian distribution in AWGN channel with BPSK signalling and show that it performs very close to the capacity for code rates of interest. We also study the statistical properties of the low-weight codeword structures. We prove that for large block lengths, the number of low-weight codewords of these structures are some Poisson random variables. These random variables can be used to evaluate the asymptotic probability mass function of the minimum distance of the turbo code among all the possible interleavers. We show that the number of indecomposable low-weight codewords of different types tend to a set of independent Poisson random variables. We find the mean and the variance of the union bound in the error floor region and study the effect of expurgating low-weight codewords on the performance. We show that the weight distribution in the transition region between Poisson and Gaussian follows a negative binomial distribution. We also calculate the interleaver gain for multi-component turbo codes based on these Poisson random variables. We show that the asymptotic error performance for multi-component codes in different weight regions converges to zero either exponentially (in the Gaussian region) or polynomially (in the Poisson and negative binomial regions) with respect to the block length, with the code-rate and energy values close to the channel capacity.
APA, Harvard, Vancouver, ISO, and other styles
39

Grismayer, Thomas. "Etude théorique et numérique de l'expansion d'un plasma crée par laser : accélération d'ions à haute énergie." Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00002924.

Full text
Abstract:
Cette thèse constitue une étude théorique et numérique sur l'accélération d'ions à haute énergie dans l'expansion d'un plasma créé par laser. Les faisceaux d'ions émis en face arrière d'une cible irradiée présentent des caractéristiques (laminarité, faible divergence, largeur des spectres) qui les distinguent de ceux provenant de la face avant. Ces caractéristiques ouvrent la voie à de nombreuses applications telles que la protonthérapie ou la radiographie de protons. L'accélération des ions s'effectue via un champ électrostatique auto-consistant résultant de la séparation de charges entre les ions et les électrons chauds. La première partie du mémoire présente le modèle théorique fluide ainsi que le code de simulation hybride décrivant l'expansion du plasma. La modélisation numérique d'une récente expérience de sondage du champ d'expansion par faisceaux de protons permet de valider le modèle exposé. L'influence d'un gradient initial de densité sur l'efficacité de l'accélération est abordée dans le seconde partie. Nous établissons un modèle qui retrace la dynamique du plasma et plus particulièrement le déferlement du flot ionique. Les réseaux de courbes qui prévoient une nette dégradation de l'énergie maximale des protons pour de grandes longueurs de gradient sont en accord avec les résultats expérimentaux. L'hypothèse d'un équilibre de Boltzmann électronique, supposé dans le modèle guide, est remise en cause dans la troisième partie où les électrons suivent une description cinétique. La nouvelle version du code permet d'évaluer l'écart à la loi de Boltzmann, qui ne modifie pas cependant de manière significative l'énergie maximale acquise par les ions.
APA, Harvard, Vancouver, ISO, and other styles
40

Weiss, Roland. "Compiling and distributing generic libraries with heterogeneous data and code representation." [S.l. : s.n.], 2003. http://deposit.ddb.de/cgi-bin/dokserv?idn=967411076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Zhang, Yequn. "Advanced Coding Techniques For Fiber-Optic Communications And Quantum Key Distribution." Diss., The University of Arizona, 2015. http://hdl.handle.net/10150/555940.

Full text
Abstract:
Coding is an essential technology for efficient fiber-optic communications and secure quantum communications. In particular, low-density parity-check (LDPC) coding is favoured due to its strong error correction capability and high-throughput implementation feasibility. In fiber-optic communications, it has been realized that advanced high-order modulation formats and soft-decision forward error correction (FEC) such as LDPC codes are the key technologies for the next-generation high-speed optical communications. Therefore, energy-efficient LDPC coding in combination with advanced modulation formats is an important topic that needs to be studied for fiber-optic communications. In secure quantum communications, large-alphabet quantum key distribution (QKD) is becoming attractive recently due to its potential in improving the efficiency of key exchange. To recover the carried information bits, efficient information reconciliation is desirable, for which the use of LDPC coding is essential. In this dissertation, we first explore different efficient LDPC coding schemes for optical transmission of polarization-division multiplexed quadrature-amplitude modulation (QAM) signals. We show that high energy efficiency can be achieved without incurring extra overhead and complexity. We then study the transmission performance of LDPC-coded turbo equalization for QAM signals in a realistic fiber link as well as that of pragmatic turbo equalizers. Further, leveraging the polarization freedom of light, we expand the signal constellation into a four-dimensional (4D) space and evaluate the performance of LDPC-coded 4D signals in terms of transmission reach. Lastly, we study the security of a proposed weak-coherent-state large-alphabet QKD protocol and investigate the information reconciliation efficiency based on LDPC coding.
APA, Harvard, Vancouver, ISO, and other styles
42

Ahmad, Waqar. "Core Switching Noise for On-Chip 3D Power Distribution Networks." Doctoral thesis, KTH, Elektroniksystem, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-103566.

Full text
Abstract:
Reducing the interconnect size with each technology node and increasing speed with each generation increases IR-drop and Ldi/dt noise. In addition to this, the drive for more integration increases the average current requirement for modern ULSI design. Simultaneous switching of core logic blocks and I/O drivers produces large current transients due to power distribution network parasitics at high clock frequency. The current transients are injected into the power distribution planes thereby inducing noise in the supply voltage. The part of the noise that is caused by switching of the internal logic load is core switching noise. The core logic switches at much higher speed than driver speed whereas the package inductance is less than the on-chip inductance in modern BGA packages. The core switching noise is currently gaining more attention for three-dimensional integrated circuits where on-chip inductance is much higher than the board and package inductance due to smaller board, and package. The switching noise of the driver is smaller than the core switching noise due to small driver size and reduced capacitance associated with short on-board wires for three-dimensional integrated circuits. The load increases with the addition of each die. The power distribution TSV pairs to supply each extra die also introduce additional parasitic. The core switching noise may propagate through substrate and consequently through interconnecting TSVs to different dies in heterogeneous integrated system. Core switching noise may lead to decreased device drive capability, increased gate delays, logic errors, and reduced noise margins. The actual behavior of the on-chip load is not well known in the beginning of the design cycle whereas altering the design during later stages is not cost effective. The size of a three-dimensional power distribution network may reach billions of nodes with the addition of dies in a vertical stack. The traditional tools may run out of time and memory during simulation of a three-dimensional power distribution network whereas, the CAD tools for the analysis of 3D power distribution network are in the process of evolution. Compact mathematical models for the estimation of core switching noise are necessary in order to overcome the power integrity challenges associated with the 3D power distribution network design. This thesis presents three different mathematical models to estimate core switching noise for 3D stacked power distribution networks. A time-domain-based mathematical model for the estimation of design parameters of a power distribution TSV pair is also proposed. Design guidelines for the estimation of optimum decoupling capacitance based on flat output impedance are also proposed for each stage of the vertical chain of power distribution TSV pairs. A mathematical model for tradeoff between TSV resistance and amount of decoupling capacitance on each DRAM die is proposed for a 3D-DRAM-Over-Logic system. The models are developed by following a three step approach: 1) design physical model, 2) convert it to equivalent electrical model, and 3) formulate the mathematical model based on the electrical model. The accuracy, speed and memory requirement of the proposed mathematical model is compared with equivalent Ansoft Nexxim models.<br><p>QC 20121015</p>
APA, Harvard, Vancouver, ISO, and other styles
43

Kaddoum, Georges. "Contributions à l’amélioration des systèmes de communication multi-utilisateur par chaos : synchronisation et analyse des performances." Toulouse, INSA, 2008. http://eprint.insa-toulouse.fr/archive/00000245/.

Full text
Abstract:
Les radiocommunications constituent actuellement un domaine en plein essor. Depuis quelques années, de nombreux chercheurs étudient la possibilité d'utiliser des signaux chaotiques pour transmettre des données, en particulier dans un contexte multi-utilisateurs. Parmi les différentes techniques d'accès multiple, le CDMA (Code Division Multiple Access) permet à différents utilisateurs de transmettre simultanément sur la même bande de fréquence. Les séquences utilisées actuellement pour l'étalement du spectre sont des séquences dites pseudo-aléatoires binaires à faible intercorrélation générées sur la base d'un registre à décalage (les séquences de Gold) ou bien des séquences binaires orthogonales (les séquences de Walsh). Cette thèse porte sur l’étude d’un système de communication multi-utilisateurs par étalement de spectre utilisant des générateurs de chaos. Les signaux chaotiques peuvent être générés par des systèmes itératifs discrets modélisés par des transformations ponctuelles. Dans un premier temps, nous avons étudié les signaux chaotiques issus de différents systèmes dynamiques, /a priori/ définis par des fonctions classiques continues ou continues par morceaux. En se basant sur les propriétés de corrélation et sur les distributions des énergies des signaux chaotiques, une étude comparative entre les différentes séquences chaotiques a été faite dans le cadre d’une transmission DS-CDMA par séquence chaotique. Le but de cette comparaison est de fournir des éléments permettant de choisir la séquence la mieux adaptée à l’étalement du spectre. Une méthode simple rapide et précise pour prédire le taux d’erreurs binaires pour des systèmes DS-CDMA basé sur le chaos a été proposée en mode mono et multi-utilisateur. Une étude plus poussée sur la distribution de l’énergie a permis d’établir une expression analytique du taux d’erreurs binaires. Ces calculs de performances ont été étendus à un canal de transmission à multi-trajets en mode multi-utilisateurs. Nous avons exploré ensuite le processus de synchronisation des systèmes dynamiques chaotiques. Tout d’abord, nous avons porté notre attention sur l’étude des différentes méthodes d’intégration numérique afin de déterminer une méthode adaptée permettant de réaliser la synchronisation chaotique par couplage avec une faible charge de calcul. Enfin, toujours dans l’idée d’établir la synchronisation du chaos pour les systèmes de transmission de type DS-CDMA. Nous avons proposé des récepteurs intégrant des unités de synchronisation similaires aux unités de synchronisations (/acquisition et poursuite/) utilisées dans les systèmes classiques à étalement du spectre. Ces unités de synchronisations utilisent simultanément une séquence binaire pseudo-aléatoire classique et une séquence chaotique pour établir et maintenir la synchronisation. Ces techniques ont été comparées à une méthode similaire de la littérature, ce qui a permis de montrer l’amélioration de la performance des systèmes proposés, et notamment le fait qu’ils soient opérationnels en mode asynchrone<br>Radiocommunications field is currently in full development. In recent years, many researchers have explored the possibility of using chaotic signals to transmit data, especially in a multi-user case. Among the various multiple access techniques, the CDMA (Code Division Multiple Access) allows different users to transmit simultaneously on the same frequency band. The sequences currently used for classical spread spectrum are the sequences known as pseudo-random binary sequences with low cross-correlation generated on the basis of a shift linear register (Gold sequences) or binary orthogonal sequences (Walsh codes). This thesis has focused on the study of a communication system with multi-user spread spectrum using chaotic generators as spreading sequences. The chaotic signals can be generated by iterative discrete systems modelled by discrete transformations. In a first step, we have studied various chaotic signals from different dynamical systems, / a priori / defined by traditional functions continuous or piece wise linear functions. Relying on the correlation properties and the energy distribution of chaotic signals, a comparative study between different chaotic sequences was made in the framework of chaos-based DS-CDMA systems. The purpose of this comparison is to provide necessary elements to choose the best sequence for a spread spectrum system under an Additive White Gaussian Noise (AWGN) channel. A simple method to rapidly and accurately predict the bit error rate for chaos-based DS-CDMA was proposed in single and multi-user cases. Further study on the energy distribution has resulted in an analytical expression of the bit error rate. These performances have been also been studied and extended to the multi-user case. In a second part, we have explored the synchronization process of chaotic dynamical systems. After reviewing the existing approaches in the literature, we have focused our attention on the study of different methods of digital integration in order to determine an appropriate method to achieve synchronization using coupling with a low a low computing charge. Finally, we have studied the synchronization process for chaos-based DS-CDMA system. We have proposed receivers incorporating synchronization units similar to the synchronization units (/ acquisition and tracking /) used in conventional spread spectrum systems. These synchronization units are using simultaneously a classical binary pseudo-random sequence together with a chaotic sequence in order to achieve and maintain synchronization. These techniques were compared to a similar existing method recently proposed in literature. We have demonstrate the improvement in performance brought by our proposed system, including the fact that this system is also operational in the asynchronous case
APA, Harvard, Vancouver, ISO, and other styles
44

Dib, Stephanie. "Distribution de la non-linéarité des fonctions booléennes." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4090/document.

Full text
Abstract:
Parmi les différents critères qu'une fonction booléenne doit satisfaire en cryptographie, on s'intéresse à la non-linéarité. Pour une fonction booléenne donnée, cette notion mesure la distance de Hamming qui la sépare des fonctions de degré au plus 1. C'est un critère naturel pour évaluer la complexité d'une fonction cryptographique, celle-ci ne devant pas admettreune approximation qui soit simple, comme par une fonction de degré 1, ou plus généralement une fonction de bas degré. Ainsi, il est important de considérer plus généralement, la non-linéarité d'ordre supérieur, qui pour un ordre donné r, mesure la distance d'une fonction donnée à l'ensemble des fonctions de degré au plus r. Cette notion est également importante pour les fonctions vectorielles, i.e., celles à plusieurs sorties. Quand le nombre de variables est grand, presque toutes les fonctions ont une non-linéarité (d'ordre 1) voisine d'une certaine valeur, assez élevée. Dans un premier travail, on étend ce résultat à l'ordre 2. Cette méthode qui consiste à observer comment les boules de Hamming recouvrent l'hypercube des fonctions booléennes, nous conduit naturellement vers une borne de décodage théorique des codes de Reed-Muller d'ordre 1, coïncidant au même endroit où se concentre la non-linéarité de presque toutes les fonctions ; une approche nouvelle pour un résultat pas entièrement nouveau. On étudie aussi la non-linéarité des fonctions vectorielles. On montre avec une approche différente, que le comportement asymptotique est le même que celui des fonctions booléennes: une concentration de la non-linéarité autour d'une valeur assez élevée<br>Among the different criteria that a Boolean function must satisfy in symmetric cryptography, we focus on the nonlinearity of these. This notion measures the Hamming distance between a given function and the set of functions with degree at most 1. It is a natural criterion to evaluate the complexity of a cryptographic function that must not have a simple approximation as by a function of degree 1, or more generally, a function of low degree. Hence, it is important to consider the higher order nonlinearity, which for a given order r, measures the distance between a given function and the set of all functions of degree at most r. This notion is equally important for multi-output Boolean functions. When the number of variables is large enough, almost all Boolean functions have nonlinearities lying in a small neighbourhood of a certain high value. We prove that this fact holds when considering the second-order nonlinearity. Our method which consists in observing how the Hamming balls pack the hypercube of Boolean functions led quite naturally to a theoretical decoding bound for the first-order Reed-Muller code, coinciding with the concentration point of the nonlinearity of almost all functions. This was a new approach for a result which is not entirely new. We also studied the nonlinearity of multi-output functions. We proved with a different approach, that the asymptotic behaviour of multi-output functions is the same as the single-output ones: a concentration of the nonlinearity around a certain large value
APA, Harvard, Vancouver, ISO, and other styles
45

Hardy, Andrew John 1965. "Fragment size distribution of in situ rock masses from drill core." Thesis, The University of Arizona, 1993. http://hdl.handle.net/10150/278324.

Full text
Abstract:
The success of rock fragmentation by blasting and subsurface fluid flow depends on many variables, including in-situ fragmentation. This study presents select data from a review of over 13000 feet of core samples drilled at seven different mine properties in the United States and Chile. Two-dimensional computer simulations of fractures can be used to quantify the volume of rock required to calculate a stable estimate of mean fragment size. Spatial periodicity of fragment size measurements is indicated through vertical variograms and is used as the basis for a statistical analysis for the zoning of rock masses. A more reliable quantitative method to characterize the size distribution of in-situ rock using digital image processing of drill core photographs is also included. Furthermore, a complete experimental analysis is provided for the comparison of currently used correction methods used to develop the full volumetric fragment size distribution curve.
APA, Harvard, Vancouver, ISO, and other styles
46

Ben, Maad Hassen. "Optimisation des stratégies de décodage des codes LDPC dans les environnements impulsifs : application aux réseaux de capteurs et ad hoc." Thesis, Reims, 2011. http://www.theses.fr/2011REIMS023/document.

Full text
Abstract:
L’objectif de cette thèse est d’étudier le comportement des codes LDPC dans un environnement où l’interférence générée par un réseau n’est pas de nature gaussienne mais présente un caractère impulsif. Un premier constat rapide montre que sans précaution, les performances de ces codes se dégradent très significativement. Nous étudions tout d’abord les différentes solutions possibles pour modéliser les bruits impulsifs. Dans le cas des interférences d’accès multiples qui apparaissent dans les réseaux ad hoc et les réseaux de capteurs, il nous semble approprié de choisir les distributions alpha-stables. Généralisation de la gaussienne, stables par convolution, elles peuvent être validées théoriquement dans plusieurs situations.Nous déterminons alors la capacité de l’environnement α-stable et montrons par une approche asymptotique que les codes LDPC dans cet environnement sont bons mais qu’une simple opération linéaire à l’entrée du décodeur ne permet pas d’obtenir de bonnes performances. Nous avons donc proposé différentes façons de calculer la vraisemblance en entrée du décodeur. L’approche optimale est très complexe à mettre en oeuvre. Nous avons étudié plusieurs approches différentes et en particulier le clipping dont nous avons cherché les paramètres optimaux<br>The goal of this PhD is to study the performance of LDPC codes in an environment where interference, generated by the network, has not a Gaussian nature but presents an impulsive behavior.A rapid study shows that, if we do not take care, the codes’ performance significantly degrades.In a first step, we study different approaches for impulsive noise modeling. In the case of multiple access interference that disturb communications in ad hoc or sensor networks, the choice of alpha-stable distributions is appropriate. They generalize Gaussian distributions, are stable by convolution and can be theoretically justified in several contexts.We then determine the capacity if the α-stable environment and show using an asymptotic method that LDPC codes in such an environment are efficient but that a simple linear operation on the received samples at the decoder input does not allow to obtain the expected good performance. Consequently we propose several methods to obtain the likelihood ratio necessary at the decoder input. The optimal solution is highly complex to implement. We have studied several other approaches and especially the clipping for which we proposed several approaches to determine the optimal parameters
APA, Harvard, Vancouver, ISO, and other styles
47

Bassino, Frédérique. "Séries rationnelles et distributions de longueurs." Phd thesis, Université de Marne la Vallée, 1996. http://tel.archives-ouvertes.fr/tel-00719366.

Full text
Abstract:
Ce travail porte sur les séries à coefficients entiers positifs, sur les séries N-rationnelles et est centré autour de deux types de questions : le problème de la hauteur d'étoile et l'étude des propriétés des distributions de longueurs des codes. On étudie le problème de la hauteur d'étoile de séries rationnelles particulières : les séries N-rationnelles en une variable. On caractérise de différentes façons les séries N-rationnelles qui sont de hauteur d'étoile 1, et on donne un critère permettant de décider de la hauteur d'étoile d'une classe importante de séries N-rationnelles en une variable. L'étude de la hauteur d'étoile des séries N-rationnelles en une variable repose sur l'utilisation des propriétés de leurs représentations par des matrices. On établit, en particulier, à partir d'un résultat d'Handelman, une caractérisation du rayon spectral d'une matrice compagnon irréductible à coefficients entiers positifs. On étudie, ensuite, les distributions de longueurs des codes circulaires et des codes préfixes. On prouve trois nouveaux résultats concernant les codes circulaires. On généralise, dans plusieurs directions, la caractérisation des distributions de longueurs des codes circulaires établie dans le cas d'un alphabet fini par Schützenberger. D'une part, on remplace l'alphabet fini par un alphabet quelconque dont les éléments ont des poids, ce qui permet d'étendre le résultat à deux distributions de longueurs. D'autre part, on restreint les conditions, ce qui permet d'établir la décidabilité dans le cas d'une distribution finie. On donne une nouvelle formulation de cette caractérisation. Ce résultat, établi par des méthodes combinatoires, met en évidence la décidabilité dans le cas d'une distribution finie. On établit une condition nécessaire et suffisante pour qu'une suite d'entiers positifs soit la distribution de longueur d'un code circulaire maximal sur un alphabet fini. Enfin, on met en évidence les liens entre les séries génératrices des codes préfixes rationnels et une classe de séries N-rationnelles : les DOL-séries. On donne une condition suffisante pour qu'une suite N-rationnelle soit la distribution de longueurs d'un code rationnel préfixe maximal sur un alphabet à k lettres.
APA, Harvard, Vancouver, ISO, and other styles
48

Castro, Diaz Miguel. "Universal characterisation of coke structure and distribution for hydrocarbon conversion process catalysts." Thesis, University of Nottingham, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.268476.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Baldiwala, Aliasgar M. "Distance Distribution and Error Performance of Reduced Dimensional Circular Trellis Coded Modulation." Ohio University / OhioLINK, 2003. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1079387217.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Sundnäs, Hannah. "With new technology come new opportunities? : A study of Swedish TV production companies." Thesis, Högskolan i Jönköping, Internationella Handelshögskolan, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-20878.

Full text
Abstract:
This thesis are investigating production companies in Sweden and how they are working with new technology, such as web TV, mobile TV but also how they handle their business models and if they are working with other financial forms to reach revenue. All the interviewed companies said that they worked with their business models but not to the extent that they should, and this is a side effect to the risk that it might involve. They do work with the new opportunities that are given to them but are afraid to take too big of a risk. The market seems to be on the upswing and they are getting a larger marginal to the distributors and are able to take bigger risk and develop new ways to reach out with their productions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography