To see the other types of publications on this topic, follow the link: Code quantique.

Dissertations / Theses on the topic 'Code quantique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Code quantique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Delfosse, Nicolas. "Constructions et performances de codes LDPC quantiques." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14697/document.

Full text
Abstract:
L'objet de cette thèse est l'étude des codes LDPC quantiques. Dans un premier temps, nous travaillons sur des constructions topologiques de codes LDPC quantiques. Nous proposons de construire une famille de codes couleur basée sur des pavages hyperboliques. Nous étudions ensuite les paramètres d'une famille de codes basée sur des graphes de Cayley.Dans une seconde partie, nous examinons les performances de ces codes. Nous obtenons une borne supérieure sur les performances des codes LDPC quantiques réguliers sur le canal à effacement quantique. Ceci prouve que ces codes n'atteignent pas la capacité du canal à effacement quantique. Dans le cas du canal de dépolarisation, nous proposons un nouvel algorithme de décodage des codes couleur basé sur trois décodages de codes de surface. Nos simulations numériques montrent de bonnes performances dans le cas des codes couleur toriques.Pour finir, nous nous intéressons au phénomène de percolation. La question centrale de la théorie de la percolation est la détermination du seuil critique. Le calcul exacte de ce seuil est généralement difficile. Nous relions la probabilité de percolation dans certains pavages réguliers du plan hyperbolique à la probabilité d'erreur de décodage pour une famille de codes hyperboliques. Nous en déduisons une borne sur le seuil critique de ces pavages hyperboliques basée sur des résultats de théorie de l'information quantique. Il s'agit d'une application de la théorie de l'information quantique à un problème purement combinatoire<br>This thesis is devoted to the study of quantum LDPC codes. The first part presents some topological constructions of quantum LDPC codes. We introduce a family of color codes based on tilings of the hyperbolic plane. We study the parameters of a family of codes based on Cayley graphs.In a second part, we analyze the performance of these codes. We obtain an upper bound on the performance of regular quantum LDPC codes over the quantum erasure channel. This implies that these codes don't achieve the capacity of the quantum erasure channel. In the case of the depolarizing channel, we propose a new decoding algorithm of color codes based on three surface codes decoding. Our numerical results show good performance for toric color codes.Finally, we focus on percolation theory. The central question in percolation theory is the determination of the critical probability. Computing the critical probability exactly is usually quite difficult. We relate the probability of percolation in some regular tilings of the hyperbolic plane to the probability of a decoding error for hyperbolic codes on the quantum erasure channel. This leads to an upper bound on the critical probability of these hyperbolic tilings based on quantum information. It is an application of quantum information to a purely combinatorial problem
APA, Harvard, Vancouver, ISO, and other styles
2

Abbara, Mamdouh. "Turbo-codes quantiques." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00842327.

Full text
Abstract:
L'idée des turbo-codes, construction très performante permettant l'encodage de l'information classique, ne pouvait jusqu'à présent pas être transposé au problème de l'encodage de l'information quantique. En effet, il subsistait des obstacles tout aussi théoriques que relevant de leur implémentation. A la version quantique connue de ces codes, on ne connaissait ni de résultat établissant une distance minimale infinie, propriété qui autorise de corriger un nombre arbitraire d'erreurs, ni de décodage itératif efficace, car les turbo-encodages quantiques, dits catastrophiques, propagent certaines erreurs lors d'un tel décodage et empêchent son bon fonctionnement. Cette thèse a permis de relever ces deux défis, en établissant des conditions théoriques pour qu'un turbo-code quantique ait une distance minimale infinie, et d'autre part, en exhibant une construction permettant au décodage itératif de bien fonctionner. Les simulations montrent alors que la classe de turbo-codes quantiques conçue est efficace pour transmettre de l'information quantique via un canal dépolarisant dont l'intensité de dépolarisation peut aller jusqu'à p = 0,145. Ces codes quantiques, de rendement constant, peuvent aussi bien être utilisés directement pour encoder de l'information quantique binaire, qu'être intégrés comme modules afin d'améliorer le fonctionnement d'autres codes tels que les LDPC quantiques.
APA, Harvard, Vancouver, ISO, and other styles
3

Leverrier, Anthony. "Etude théorique de la distribution quantique de clés à variables continues." Phd thesis, Télécom ParisTech, 2009. http://tel.archives-ouvertes.fr/tel-00451021.

Full text
Abstract:
Cette thèse porte sur la distribution quantique de clés, qui est une primitive cryptographique permettant à deux correspondants éloignés, Alice et Bob, d'établir une clé secrète commune malgré la présence potentielle d'un espion. On s'intéresse notamment aux protocoles " à variables continues " où Alice et Bob encodent l'information dans l'espace des phases. L'intérêt majeur de ces protocoles est qu'ils sont faciles à mettre en œuvre car ils ne requièrent que des composants télécom standards. La sécurité de ces protocoles repose sur les lois de la physique quantique : acquérir de l'information sur les données échangées par Alice et Bob induit nécessairement un bruit qui révèle la présence de l'espion. Une étape particulièrement délicate pour les protocoles à variables continues est la " réconciliation " durant laquelle Alice et Bob utilisent leurs résultats de mesure classiques pour se mettre d'accord sur une chaîne de bits identiques. Nous proposons d'abord un algorithme de réconciliation optimal pour le protocole initial, puis introduisons un nouveau protocole qui résout automatiquement le problème de la réconciliation grâce à l'emploi d'une modulation discrète. Parce que les protocoles à variables continues sont formellement décrits dans un espace de Hilbert de dimension infinie, prouver leur sécurité pose des problèmes mathématiques originaux. Nous nous intéressons d'abord à des symétries spécifiques de ces protocoles dans l'espace des phases. Ces symétries permettent de simplifier considérablement l'analyse de sécurité. Enfin, nous étudions l'influence des effets de tailles finies, tels que l'estimation du canal quantique, sur les performances des protocoles.
APA, Harvard, Vancouver, ISO, and other styles
4

Leverrier, Anthony. "Etude théorique de la distribution quantique de clés à variables continues." Phd thesis, Paris, Télécom ParisTech, 2009. https://theses.hal.science/tel-00451021.

Full text
Abstract:
Cette thèse porte sur la distribution quantique de clés, qui est une primitive cryptographique qui permet à deux correspondants éloignés, Alice et Bob, d'établir une clé secrète commune malgré la présence potentielle d'un espion. On s'intéresse notamment aux protocoles « à variables continues »' où Alice et Bob encodent l'information dans l'espace des phases. L'intérêt majeur de ces protocoles est qu'ils sont faciles à mettre en œuvre car ils ne requièrent que des composants télécom standards. La sécurité de ces protocoles repose sur les lois de la physique quantique : acquérir de l'information sur les données échangées par Alice et Bob induit nécessairement un bruit qui révèle la présence de l'espion. Une étape particulièrement délicate pour les protocoles à variables continues est la « réconciliation » durant laquelle Alice et Bob utilisent leurs résultats de mesure classiques pour se mettre d'accord sur une chaîne de bits identiques. Nous proposons d'abord un algorithme de réconciliation optimal pour le protocole initial, puis introduisons un nouveau protocole qui résout automatiquement le problème de la réconciliation grâce à l'emploi d'une modulation discrète. Parce que les protocoles à variables continues sont formellement décrits dans un espace de Hilbert de dimension infinie, prouver leur sécurité pose des problèmes mathématiques originaux. Nous nous intéressons d'abord à des symétries spécifiques de ces protocoles dans l'espace des phases. Ces symétries permettent de simplifier considérablement l'analyse de sécurité. Enfin, nous étudions l'influence des effets de tailles finies, tels que l'estimation du canal quantique, sur les performances des protocoles<br>This thesis is concerned with quantum key distribution (QKD), a cryptographic primitive allowing two distant parties, Alice and Bob, to establish a secret key, in spite of the presence of a potential eavesdropper, Eve. Here, we focus on continuous-variable protocols, for which the information is coded in phase-space. The main advantage of these protocols is that their implementation only requires standard telecom components. The security of QKD lies on the laws of quantum physics: an eavesdropper will necessary induce some noise on the communication, therefore revealing her presence. A particularly difficult step of continuous-variable QKD protocols is the ``reconciliation'' where Alice and Bob use their classical measurement results to agree on a common bit string. We first develop an optimal reconciliation algorithm for the initial protocol, then introduce a new protocol for which the reconciliation problem is automatically taken care of thanks to a discrete modulation. Proving the security of continuous-variable QKD protocols is a challenging problem because these protocols are formally described in an infinite dimensional Hilbert space. A solution is to use all available symmetries of the protocols. In particular, we introduce and study a class of symmetries in phase space, which is particularly relevant for continuous-variable QKD. Finally, we consider finite size effects for these protocols. We especially analyse the influence of parameter estimation on the performance of continuous-variable QDK protocols
APA, Harvard, Vancouver, ISO, and other styles
5

Chaulet, Julia. "Etude de cryptosystèmes à clé publique basés sur les codes MDPC quasi-cycliques." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066064/document.

Full text
Abstract:
L’utilisation des codes MDPC (Moderate Density Parity Check) quasi-cycliques dans le cryptosystème de McEliece offre un schéma de chiffrement post-quantique dont les clés ont une taille raisonnable et dont le chiffrement et le déchiffrement n’utilisent que des opérations binaires. C’est donc un bon candidat pour l’implémentation embarquée ou à bas coût.Dans ce contexte, certaines informations peuvent être exploitées pour construire des attaques par canaux cachés.Ici, le déchiffrement consiste principalement à décoder un mot de code bruité. Le décodeur utilisé est itératif et probabiliste : le nombre d’itérations de l'algorithme varie en fonction des instances et certains décodages peuvent échouer. Ces comportements ne sont pas souhaitables car ils peuvent permettre d’extraire des informations sur le secret.Une contremesure possible est de limiter le nombre d’instances de chiffrement avec les mêmes clés. Une autre façon serait de recourir à un décodage à temps constant dont la probabilité d’échec au décodage est négligeable. L’enjeu principal de cette thèse est de fournir de nouveaux outils pour analyser du comportement du décodeur pour la cryptographie.Dans un second temps, nous expliquons pourquoi l'utilisation des codes polaires n'est pas sûre pour le cryptosystème de McEliece. Pour ce faire, nous utilisons de nouvelles techniques afin de résoudre une équivalence de codes. Nous exhibons de nombreux liens entre les codes polaires et les codes de Reed-Muller et ainsi d'introduire une nouvelle famille de codes : les codes monomiaux décroissants. Ces résultats sont donc aussi d'un intérêt indépendant pour la théorie des codes<br>Considering the McEliece cryptosystem using quasi-cylcic MDPC (Moderate Density Parity Check matrix) codes allows us to build a post-quantum encryption scheme with nice features. Namely, it has reasonable key sizes and both encryption and decryption are performed using binary operations. Thus, this scheme seems to be a good candidate for embedded and lightweight implementations. In this case, any information obtained through side channels can lead to an attack. In the McEliece cryptosystem, the decryption process essentially consists in decoding. As we consider the use of an iterative and probabilistic algorithm, the number of iterations needed to decode depends on the instance considered and some of it may fail to be decoded. These behaviors are not suitable because they may be used to extract information about the secrets. One countermeasure could be to bound the number of encryptions using the same key. Another solution could be to employ a constant time decoder with a negligible decoding failure probability, that is to say which is about the expected security level of the cryptosystem. The main goal of this thesis is to present new methods to analyse decoder behavior in a cryptographic context.Second, we explain why a McEliece encryption scheme based on polar code does not ensure the expected level of security. To do so, we apply new techniques to resolve the code equivalence problem. This allows us to highlight several common properties shared by Reed-Muller codes and polar codes. We introduce a new family of codes, named decreasing monomial codes, containing both Reed-Muller and polar codes. These results are also of independent interest for coding theory
APA, Harvard, Vancouver, ISO, and other styles
6

Ollivier, Harold. "Eléments de théorie de l'information quantique, décohérence et codes correcteurs quantiques." Phd thesis, Ecole Polytechnique X, 2004. http://pastel.archives-ouvertes.fr/pastel-00001131.

Full text
Abstract:
Depuis 20 ans, l'information quantique a profondément changé notre façon d'appréhender la physique atomique, ainsi que la nature des ressources utiles au calcul. Cette thèse aborde trois aspects relatifs à l'information quantique: - Le phénomène de décohérence -- responsable de la transition quantique-classique -- est décrit quantitativement grâce à l'analyse de l'information mutuelle entre deux systèmes quantiques ; - Une nouvelle classe de codes correcteurs d'erreurs quantiques -- les codes convolutifs -- est introduite en detail et il est montré qu'elle partage les propriétés des codes convolutifs classiques (codage et décodage en ligne, algorithme efficace d'estimation d'erreurs au maximum de vraisemblance, existence de condition nécessaire et suffisante pour l'absence d'erreur catastrophique, etc.) ; - Quelques propositions expérimentales de manipulation d'information quantique sont décrites (porte de Toffoli et clonage universel pour l'électrodynamique quantique en cavité).
APA, Harvard, Vancouver, ISO, and other styles
7

Dyshko, Serhii. "Généralisations du Théorème d'Extension de MacWilliams." Thesis, Toulon, 2016. http://www.theses.fr/2016TOUL0018/document.

Full text
Abstract:
Le fameux Théorème d’Extension de MacWilliams affirme que, pour les codes classiques, toute isométrie deHamming linéaire d'un code linéaire se prolonge en une application monomiale. Cependant, pour les codeslinéaires sur les alphabets de module, l'existence d'un analogue du théorème d'extension n'est pas garantie.Autrement dit, il existe des codes linéaires sur certains alphabets de module dont les isométries de Hammingne sont pas toujours extensibles. Il en est de même pour un contexte plus général d'un alphabet de module munid'une fonction de poids arbitraire. Dans la présente thèse, nous prouvons des analogues du théorèmed'extension pour des codes construits sur des alphabets et fonctions de poids arbitraires. La propriétéd'extension est analysée notamment pour les codes de petite longueur sur un alphabet de module de matrices,les codes MDS généraux, ou encore les codes sur un alphabet de module muni de la composition de poidssymétrisée. Indépendamment de ce sujet, une classification des deux groupes des isométries des codescombinatoires est donnée. Les techniques développées dans la thèse sont prolongées aux cas des codesstabilisateurs quantiques et aux codes de Gabidulin dans le cadre de la métrique rang<br>The famous MacWilliams Extension Theorem states that for classical codes each linear Hamming isometry ofa linear code extends to a monomial map. However, for linear codes over module alphabets an analogue of theextension theorem does not always exist. That is, there may exists a linear code over a module alphabet with anunextendable Hamming isometry. The same holds in a more general context of a module alphabet equippedwith a general weight function. Analogues of the extension theorem for different classes of codes, alphabetsand weights are proven in the present thesis. For instance, extension properties of the following codes arestudied: short codes over a matrix module alphabet, maximum distance separable codes, codes over a modulealphabet equipped with the symmetrized weight composition. As a separate result, a classification of twoisometry groups of combinatorial codes is given. The thesis also contains applications of the developedtechniques to quantum stabilizer codes and Gabidulin codes
APA, Harvard, Vancouver, ISO, and other styles
8

Grospellier, Antoine. "Décodage des codes expanseurs quantiques et application au calcul quantique tolérant aux fautes." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS575.

Full text
Abstract:
Le calcul quantique tolérant aux fautes est un ensemble de techniques dont le but est d'effectuer des calculs quantiques de manière fiable en utilisant des composants bruités. Dans ce contexte, l'utilisation de codes correcteurs quantiques maintient le nombre d'erreurs présentes dans le système en dessous d'un seuil tolérable. L'un des principaux problèmes de ce domaine est d'évaluer le coût minimum (en mémoire et en temps) nécessaire pour transformer un calcul quantique idéal en un calcul tolérant aux fautes. Dans cette thèse, nous montrons que la famille des codes expanseurs quantiques associée à l'algorithme de décodage small-set-flip peut être utilisée dans la construction de ref. [arXiv:1310.2984] pour réaliser du calcul quantique tolérant aux fautes avec coût constant en mémoire. La famille de codes correcteurs ainsi que le décodeur que nous étudions ont été introduits dans ref. [arXiv:1504.00822] où un modèle de bruit adverse est considéré. En nous appuyant sur les résultats de cet article, nous analysons le comportement des codes expanseurs quantiques face à un modèle de bruit stochastique qui est pertinent dans le cadre du calcul tolérant aux fautes [arXiv:1711.08351], [arXiv:1808.03821]. De plus, nous montrons que l'algorithme de décodage peut être parallélisé pour fonctionner en temps constant. Cette propriété est essentielle pour éviter que les erreurs ne s'accumulent pendant que l'algorithme est exécuté. Au-delà des résultats théoriques décrits ci-dessus, nous avons effectué une analyse numérique des codes expanseurs quantiques dans le but d'évaluer leurs performances en pratique [arXiv:1810.03681]. Le modèle de bruit choisi pour ces simulations consiste à générer des erreurs de types X et Z de manière indépendante et identiquement distribuée sur les qubits. Les résultats obtenus pour ces codes de rendement constant sont prometteurs puisque nos simulations montrent que leur seuil est décent et que leurs performances à taille finie sont bonnes<br>Fault tolerant quantum computation is a technique to perform reliable quantum computation using noisy components. In this context, quantum error correcting codes are used to keep the amount of errors under a sustainable threshold. One of the main problems of this field is to determine the minimum cost, in terms of memory and time, which is needed in order to transform an ideal quantum computation into a fault-tolerant one. In this PhD thesis, we show that the family of quantum expander codes and the small-set-flip decoder can be used in the construction of ref. [arXiv:1310.2984] to produce a fault-tolerant quantum circuit with constant space overhead. The error correcting code family and the decoder that we study has been introduced in ref. [arXiv:1504.00822] where an adversarial error model was examined. Based on the results of this article, we analyze quantum expander codes subjected to a stochastic error model which is relevant for fault-tolerant quantum computation [arXiv:1711.08351], [arXiv:1808.03821]. In addition, we show that the decoding algorithm can be parallelized to run in constant time. This is very relevant to prevent errors from accumulating while the decoding algorithm is running. Beyond the theoretical results described above, we perform a numerical analysis of quantum expander codes to measure their performance in practice [arXiv:1810.03681]. The error model used during these simulations generates X and Z type errors on the qubits with an independent and identically distributed probability distribution. Our results are promising because they reveal that these constant rate codes have a decent threshold and good finite length performance
APA, Harvard, Vancouver, ISO, and other styles
9

Maurice, Denise. "Codes correcteurs quantiques pouvant se décoder itérativement." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066361/document.

Full text
Abstract:
On sait depuis vingt ans maintenant qu'un ordinateur quantique permettrait de résoudre en temps polynomial plusieurs problèmes considérés comme difficiles dans le modèle classique de calcul, comme la factorisation ou le logarithme discret. Entre autres, un tel ordinateur mettrait à mal tous les systèmes de chiffrement à clé publique actuellement utilisés en pratique, mais sa réalisation se heurte, entre autres, aux phénomènes de décohérence qui viennent entacher l'état des qubits qui le constituent. Pour protéger ces qubits, on utilise des codes correcteurs quantiques, qui doivent non seulement être performants mais aussi munis d'un décodage très rapide, sous peine de voir s'accumuler les erreurs plus vite qu'on ne peut les corriger. Une solution très prometteuse est fournie par des équivalents quantiques des codes LDPC (Low Density Parity Check, à matrice de parité creuse). Ces codes classiques offrent beaucoup d'avantages : ils sont faciles à générer, rapides à décoder (grâce à un algorithme de décodage itératif) et performants. Mais leur version quantique se heurte (entre autres) à deux problèmes. On peut voir un code quantique comme une paire de codes classiques, dont les matrices de parité sont orthogonales entre elles. Le premier problème consiste alors à construire deux « bons » codes qui vérifient cette propriété. L'autre vient du décodage : chaque ligne de la matrice de parité d'un des codes fournit un mot de code de poids faible pour le second code. En réalité, dans un code quantique, les erreurs correspondantes sont bénignes et n'affectent pas le système, mais il est difficile d'en tenir compte avec l'algorithme de décodage itératif usuel. On étudie dans un premier temps une construction existante, basée sur un produit de deux codes classiques. Cette construction, qui possède de bonnes propriétés théoriques (dimension et distance minimale), s'est avérée décevante dans les performances pratiques, qui s'expliquent par la structure particulière du code produit. Nous proposons ensuite plusieurs variantes de cette construction, possédant potentiellement de bonnes propriétés de correction. Ensuite, on étudie des codes dits q-Aires~: ce type de construction, inspiré des codes classiques, consiste à agrandir un code LDPC existant en augmentant la taille de son alphabet. Cette construction, qui s'applique à n'importe quel code quantique 2-Régulier (c'est-À-Dire dont les matrices de parité possèdent exactement deux 1 par colonne), a donné de très bonnes performances dans le cas particulier du code torique. Ce code bien connu se décode usuellement très bien avec un algorithme spécifique, mais mal avec l'algorithme usuel de propagation de croyances. Enfin, un équivalent quantique des codes spatialement couplés est proposé. Cette idée vient également du monde classique, où elle améliore de façon spectaculaire les performances des codes LDPC : le décodage s'effectue en temps quasi-Linéaire et atteint, de manière prouvée, la capacité des canaux symétriques à entrées binaires. Si dans le cas quantique, la preuve éventuelle reste encore à faire, certaines constructions spatialement couplées ont abouti à d'excellentes performances, bien au-Delà de toutes les autres constructions de codes LDPC quantiques proposées jusqu'à présent<br>Quantum information is a developping field of study with various applications (in cryptography, fast computing, ...). Its basic element, the qubit, is volatile : any measurement changes its value. This also applies to unvolontary measurements due to an imperfect insulation (as seen in any practical setting). Unless we can detect and correct these modifications, any quantum computation is bound to fail. These unwanted modifications remind us of errors that can happen in the transmission of a (classical) message. These errors can be accounted for with an error-Correcting code. For quantum errors, we need to set quantum error-Correcting codes. In order to prevent the clotting of errors that cannot be compensated, these quantum error-Correcting codes need to be both efficient and fast. Among classical error-Correcting codes, Low Density Parity Check (LDPC) codes provide many perks: They are easy to create, fast to decode (with an iterative decoding algorithme, known as belief propagation) and close to optimal. Their quantum equivalents should then be good candidates, even if they present two major drawbacks (among other less important ones). A quantum error correction code can be seen as a combination of two classical codes, with orthogonal parity-Check matrices. The first issue is the building of two efficient codes with this property. The other is in the decoding: each row of the parity-Check matrix from one code gives a low-Weight codeword of the other code. In fact, with quantum codes, corresponding errors do no affect the system, but are difficult to account for with the usual iterative decoding algorithm. In the first place, this thesis studies an existing construction, based on the product of two classical codes. This construction has good theoritical properties (dimension and minimal distance), but has shown disappointing practical results, which are explained by the resulting code's structure. Several variations, which could have good theoritical properties are also analyzed but produce no usable results at this time. We then move to the study of q-Ary codes. This construction, derived from classical codes, is the enlargement of an existing LDPC code through the augmentation of its alphabet. It applies to any 2-Regular quantum code (meaning with parity-Check matrices that have exactly two ones per column) and gives good performance with the well-Known toric code, which can be easily decoded with its own specific algorithm (but not that easily with the usual belief-Propagation algorithm). Finally this thesis explores a quantum equivalent of spatially coupled codes, an idea also derived from the classical field, where it greatly enhances the performance of LDPC codes. A result which has been proven. If, in its quantum form, a proof is still not derived, some spatially-Coupled constructions have lead to excellent performance, well beyond other recent constuctions
APA, Harvard, Vancouver, ISO, and other styles
10

Misoczki, Rafael. "Two Approaches for Achieving Efficient Code-Based Cryptosystems." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00931811.

Full text
Abstract:
La cryptographie basée sur les codes n'est pas largement déployée dans la pratique. Principalement à cause de son inconvénient majeur: des tailles de clés énormes. Dans cette thèse, nous proposons deux approches différentes pour résoudre ce problème. Le premier utilise des codes algébriques, présentant un moyen de construire des codes de Goppa qui admettent une représentation compacte. Ce sont les Codes de Goppa p-adiques. Nous montrons comment construire ces codes pour instancier des systèmes de chiffrement à clé publique, comment étendre cette approche pour instancier un schéma de signature et, enfin, comment généraliser cet approche pour définir des codes de caractéristique plus grande au égale à deux. En résumé, nous avons réussi à produire des clés très compact basé sur la renommée famille de codes de Goppa. Bien qu'efficace, codes de Goppa p-adiques ont une propriété non souhaitable: une forte structure algébrique. Cela nous amène à notre deuxième approche, en utilisant des codes LDPC avec densité augmentée, ou tout simplement des codes MDPC. Ce sont des codes basés sur des graphes, qui sont libres de structure algébrique. Il est très raisonnable de supposer que les codes MDPC sont distinguable seulement en trouvant des mots de code de poids faible dans son dual. Ceci constitue un avantage important non seulement par rapport à tous les autres variantes du système de McEliece à clés compactes, mais aussi en ce qui concerne la version classique basée sur les codes de Goppa binaires. Ici, les clés compactes sont obtenus en utilisant une structure quasi-cyclique.
APA, Harvard, Vancouver, ISO, and other styles
11

Dyshko, Serhii. "Généralisations du Théorème d'Extension de MacWilliams." Electronic Thesis or Diss., Toulon, 2016. http://www.theses.fr/2016TOUL0018.

Full text
Abstract:
Le fameux Théorème d’Extension de MacWilliams affirme que, pour les codes classiques, toute isométrie deHamming linéaire d'un code linéaire se prolonge en une application monomiale. Cependant, pour les codeslinéaires sur les alphabets de module, l'existence d'un analogue du théorème d'extension n'est pas garantie.Autrement dit, il existe des codes linéaires sur certains alphabets de module dont les isométries de Hammingne sont pas toujours extensibles. Il en est de même pour un contexte plus général d'un alphabet de module munid'une fonction de poids arbitraire. Dans la présente thèse, nous prouvons des analogues du théorèmed'extension pour des codes construits sur des alphabets et fonctions de poids arbitraires. La propriétéd'extension est analysée notamment pour les codes de petite longueur sur un alphabet de module de matrices,les codes MDS généraux, ou encore les codes sur un alphabet de module muni de la composition de poidssymétrisée. Indépendamment de ce sujet, une classification des deux groupes des isométries des codescombinatoires est donnée. Les techniques développées dans la thèse sont prolongées aux cas des codesstabilisateurs quantiques et aux codes de Gabidulin dans le cadre de la métrique rang<br>The famous MacWilliams Extension Theorem states that for classical codes each linear Hamming isometry ofa linear code extends to a monomial map. However, for linear codes over module alphabets an analogue of theextension theorem does not always exist. That is, there may exists a linear code over a module alphabet with anunextendable Hamming isometry. The same holds in a more general context of a module alphabet equippedwith a general weight function. Analogues of the extension theorem for different classes of codes, alphabetsand weights are proven in the present thesis. For instance, extension properties of the following codes arestudied: short codes over a matrix module alphabet, maximum distance separable codes, codes over a modulealphabet equipped with the symmetrized weight composition. As a separate result, a classification of twoisometry groups of combinatorial codes is given. The thesis also contains applications of the developedtechniques to quantum stabilizer codes and Gabidulin codes
APA, Harvard, Vancouver, ISO, and other styles
12

Chilowicz, Michel. "Recherche de similarité dans du code source." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00587628.

Full text
Abstract:
La duplication de code source a de nombreuses origines : copie et adaptation inter-projets ou clonage au sein d'un même projet. Rechercher des correspondances de code copié permet de le factoriser dans un projet ou de mettre en évidence des situations de plagiat. Nous étudions des méthodes statiques de recherche de similarité sur du code ayant potentiellement subi des opérations d'édition telle que l'insertion, la suppression, la transposition ainsi que la factorisation et le développement de fonctions. Des techniques d'identification de similarité génomique sont examinées et adaptées au contexte de la recherche de clones de code source sous forme lexemisée. Après une discussion sur des procédés d'alignement de lexèmes et de recherche par empreintes de n-grams, est présentée une méthode de factorisation fusionnant les graphes d'appels de fonctions de projets au sein d'un graphe unique avec introduction de fonctions synthétiques exprimant les correspondances imbriquées. Elle utilise des structures d'indexation de suffixes pour la détermination de facteurs répétés. Une autre voie d'exploration permettant de manipuler de grandes bases indexées de code par arbre de syntaxe est abordée avec la recherche de sous-arbres similaires par leur hachage et leur indexation selon des profils d'abstraction variables. Des clones exacts de sous-arbres de forte proximité dans leurs arbres d'extraction peuvent alors être consolidés afin d'obtenir des correspondances approchées et étendues. En amont et en aval de la recherche de correspondances, des métriques de similarité sont définies afin de préselectionner les zones d'examen, affiner la recherche ou mieux représenter les résultats
APA, Harvard, Vancouver, ISO, and other styles
13

Urvoy, De Portzamparc Frédéric. "Sécurités algébrique et physique en cryptographie fondée sur les codes correcteurs d'erreurs." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066106/document.

Full text
Abstract:
La cryptographie à base de codes correcteurs, introduite par Robert McEliece en 1978, est un candidat potentiel au remplacement des primitives asymétriques vulnérables à l'émergence d'un ordinateur quantique. Elle possède de plus une sécurité classique éprouvée depuis plus de trente ans, et permet des fonctions de chiffrement très rapides. Son défaut majeur réside dans la taille des clefs publiques. Pour cette raison, plusieurs variantes du schéma de McEliece pour lesquelles les clefs sont plus aisées à stocker ont été proposées ces dernières années. Dans cette thèse, nous nous intéressons aux variantes utilisant soit des codes alternants avec symétrie, soit des codes de Goppa sauvages. Nous étudions leur résistance aux attaques algébriques et exhibons des faiblesses parfois fatales. Dans chaque cas, nous révélons l'existence de structures algébriques cachées qui nous permettent de décrire la clef secrète par un système non-linéaire d'équations en un nombre de variables très inférieur aux modélisations antérieures. Sa résolution par base de Gröbner nous permet de trouver la clef secrète pour de nombreuses instances hors de portée jusqu'à présent et proposés pour un usage à des fins cryptographiques. Dans le cas des codes alternants avec symétrie, nous montrons une vulnérabilité plus fondamentale du processus de réduction de taille de la clef.Pour un déploiement à l'échelle industrielle de la cryptographie à base de codes correcteurs, il est nécessaire d'en évaluer la résistance aux attaques physiques, qui visent le matériel exécutant les primitives. Nous décrivons dans cette optique un algorithme de déchiffrement McEliece plus résistant que l'état de l'art<br>Code-based cryptography, introduced by Robert McEliece in 1978, is a potential candidate to replace the asymetric primitives which are threatened by quantum computers. More generral, it has been considered secure for more than thirty years, and allow very vast encryption primitives. Its major drawback lies in the size of the public keys. For this reason, several variants of the original McEliece scheme with keys easier to store were proposed in the last years.In this thesis, we are interested in variants using alternant codes with symmetries and wild Goppa codes. We study their resistance to algebraic attacks, and reveal sometimes fatal weaknesses. In each case, we show the existence of hidden algebraic structures allowing to describe the secret key with non-linear systems of multivariate equations containing fewer variables then in the previous modellings. Their resolutions with Gröbner bases allow to find the secret keys for numerous instances out of reach until now and proposed for cryptographic purposes. For the alternant codes with symmetries, we show a more fondamental vulnerability of the key size reduction process. Prior to an industrial deployment, it is necessary to evaluate the resistance to physical attacks, which target device executing a primitive. To this purpose, we describe a decryption algorithm of McEliece more resistant than the state-of-the-art.Code-based cryptography, introduced by Robert McEliece in 1978, is a potential candidate to replace the asymetric primitives which are threatened by quantum computers. More generral, it has been considered secure for more than thirty years, and allow very vast encryption primitives. Its major drawback lies in the size of the public keys. For this reason, several variants of the original McEliece scheme with keys easier to store were proposed in the last years.In this thesis, we are interested in variants using alternant codes with symmetries and wild Goppa codes. We study their resistance to algebraic attacks, and reveal sometimes fatal weaknesses. In each case, we show the existence of hidden algebraic structures allowing to describe the secret key with non-linear systems of multivariate equations containing fewer variables then in the previous modellings. Their resolutions with Gröbner bases allow to find the secret keys for numerous instances out of reach until now and proposed for cryptographic purposes. For the alternant codes with symmetries, we show a more fondamental vulnerability of the key size reduction process. Prior to an industrial deployment, it is necessary to evaluate the resistance to physical attacks, which target device executing a primitive. To this purpose, we describe a decryption algorithm of McEliece more resistant than the state-of-the-art
APA, Harvard, Vancouver, ISO, and other styles
14

Iyer, Sridharan Pavithran. "Complexité du décodage des codes stabilisateurs quantiques." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5388.

Full text
Abstract:
Résumé : Ce mémoire porte sur l’étude de la complexité du problème du décodage des codes stabilisateurs quantiques. Les trois premiers chapitres introduisent les notions nécessaires pour comprendre notre résultat principal. D’abord, nous rappelons les bases de la théorie de la complexité et illustrons les concepts qui s’y rattachent à l’aide d’exemples tirés de la physique. Ensuite, nous expliquons le problème du décodage des codes correcteurs classiques. Nous considérons les codes linéaires sur le canal binaire symétrique et nous discutons du célèbre résultat de McEliece et al. [1]. Dans le troisième chapitre, nous étudions le problème de la communication quantique sur des canaux de Pauli. Dans ce chapitre, nous introduisons le formalisme des codes stabilisateurs pour étudier la correction d’erreur quantique et mettons en évidence le concept de dégénérescence. Le problème de décodage des codes stabilisateurs quantiques négligeant la dégénérescence est appelé «quantum maximum likelihood decoding»(QMLD). Il a été démontré que ce problème est NP-complet par Min Hseiu Heish et al., dans [2]. Nous nous concentrons sur la stratégie optimale de décodage, appelée «degenerate quantum maximum likelihood decoding »(DQMLD), qui prend en compte la présence de la dégénérescence et nous mettons en évidence quelques instances pour lesquelles les performances de ces deux méthodes diffèrent drastiquement. La contribution principale de ce mémoire est de prouver que DQMLD est considérablement plus difficile que ce que les résultats précédents indiquaient. Dans le dernier chapitre, nous présentons notre résultat principal (Thm. 5.1.1), établissant que DQMLD est #P-complet. Pour le prouver, nous démontrons que le problème de l’évaluation de l’énumérateur de poids d’un code linéaire, qui est #P-complet, se réduit au problème DQMLD. Le résultat principal de ce mémoire est présenté sous forme d’article dans [3] et est présentement considéré pour publication dans IEEE Transactions on Information Theory. Nous montrons également que, sous certaines conditions, les résultats de QMLD et DQMLD coïncident. Il s’agit d’une amélioration par rapport aux résultats obtenus dans [4, 5]. // Abstract : This thesis deals with the study of computational complexity of decoding stabilizer codes. The first three chapters contain all the necessary background to understand the main result of this thesis. First, we explain the necessary notions in computational complexity, introducing P, NP, #P classes of problems, along with some examples intended for physicists. Then, we explain the decoding problem in classical error correction, for linear codes on the binary symmetric channel and discuss the celebrated result of Mcleicee et al., in [1]. In the third chapter, we study the problem of quantum communication, over Pauli channels. Here, using the stabilizer formalism, we discuss the concept of degenerate errors. The decoding problem for stabilizer codes, which simply neglects the presence of degenerate errors, is called quantum maximum likelihood decoding (QMLD) and it was shown to be NP-complete, by Min Hseiu Heish et al., in [2]. We focus on the problem of optimal decoding, called degenerate quantum maximum likelihood decoding (DQMLD), which accounts for the presence of degenerate errors. We will highlight some instances of stabilizer codes, where the presence of degenerate errors causes drastic variations between the performances of DQMLD and QMLD. The main contribution of this thesis is to demonstrate that the optimal decoding problem for stabilizer codes is much harder than what the previous results had anticipated. In the last chapter, we present our own result (in Thm. 5.1.1), establishing that the optimal decoding problem for stabilizer codes, is #P-complete. To prove this, we demonstrate that the problem of evaluating the weight enumerator of a binary linear code, which is #P-complete, can be reduced (in polynomial time) to the DQMLD problem, see (Sec. 5.1). Our principal result is also presented as an article in [3], which is currently under review for publication in IEEE Transactions on Information Theory. In addition to the main result, we also show that under certain conditions, the outputs of DQMLD and QMLD always agree. We consider the conditions developed by us to be an improvement over the ones in [4, 5].
APA, Harvard, Vancouver, ISO, and other styles
15

Duclos-Cianci, Guillaume. "Décodeurs rapides pour codes topologiques quantiques." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/4868.

Full text
Abstract:
L'encodage topologique de l'information quantique a attiré beaucoup d'attention, car c'est un modèle qui semble propice à résister aux erreurs locales. Tout d'abord, le modèle du calcul topologique est basé sur la statistique anyonique non-Abélienne universelle et sur son contrôle. Des anyons indésirables peuvent apparaître soudainement, en raison de fluctuations thermiques ou de processus virtuels. La présence de ces anyons peut corrompre l'information encodée, il est nécessaire de les éliminer: la correction consiste à fusionner les défauts tout en préservant la topologie du système. Ensuite, dans le cas des codes topologiques, on doit aussi protéger l'information encodée dans la topologie. En effet, dans ces systèmes, on n'a accès qu'à une fraction de l'information décrivant l'erreur. Elle est recueillie par des mesures et peut être interprétée en termes de particules. Ces défauts peuplent le code et doivent être annihilés adéquatement dans le but de préserver l'information encodée. Dans ce mémoire, nous proposons un algorithme efficace, appelé décodeur, pouvant être utilisé dans les deux contextes décrits ci-haut. Pour y parvenir, cet algorithme s'inspire de méthodes de renormalisation et de propagation de croyance. Il est exponentiellement plus rapide que les méthodes déjà existantes, étant de complexité [Caractères spéciaux omis] (l[indice supérieur 2] log l) en série et, si on parallélise, [Caractères spéciaux omis] (log l) en temps, contre [Caractères spéciaux omis] (l[indice supérieur]6) pour les autres décodeurs. Le temps étant le facteur limitant dans le problème du décodage, cette caractéristique est primordiale. De plus, il tolère une plus grande amplitude de bruit que les méthodes existantes; il possède un seuil de ~ 16.5% sur le canal dépolarisant surpassant le seuil déjà établi de ~ 15.5%. Finalement, il est plus versatile. En effet, en étant limité au code de Kitaev, on ne savait pas décoder les codes topologiques de manière générale (e.g. codes de couleur). Or, le décodeur proposé dans ce mémoire peut traiter la grande classe des codes topologiques stabiliseurs.
APA, Harvard, Vancouver, ISO, and other styles
16

Martinez, Bertrand. "Effets radiatifs et quantiques dans l'interaction laser-matière ultra-relativiste." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0442/document.

Full text
Abstract:
L'avènement d'une nouvelle génération de lasers ultra-relativistes (d'éclairement supérieur à 10^22 W/cm2), tels le laser APOLLON sur le plateau de Saclay, donnera lieu à un régime d'interaction laser-matière sans précédent, couplant physique des plasmas relativistes et effets électrodynamiques quantiques. Sources de particules et de rayonnements aux propriétés énergétiques et spatio-temporelles inédites, ces lasers serviront, entre autres applications, à la mise au point de nouveaux concepts d'accélérateurs et de diagnostics radiographiques, au chauffage de plasmas denses, comme à la reproduction de configurations astrophysiques en laboratoire. En prévision des futures expériences, les codes particle-in-cell (PIC), qui constituent les outils de référence pour la simulation de l'interaction laser-plasma, doivent être enrichis des processus radiatifs et quantiques propres à ce nouveau régime d'interaction. C'est le cas du code CALDER développé au CEA/DAM, qui modélise désormais l'émission de photons énergétiques et la conversion de ceux-ci en paires électron-positron ; autant d'effets susceptibles d'affecter le bilan d'énergie de l'interaction laser-cible et, plus précisément, le rendement du laser en particules et rayonnements énergétiques. L'objet de ce stage théorique est d'étudier, à l'aide du code CALDER, l'influence de ces processus dans un certain nombre de scénarios physiques en champ extrême (accélération électronique et ionique dans un plasma surcritique, production de rayonnement, génération de choc non-collisionnel…)<br>Forthcoming multi-petawatt laser systems, such as the French Apollon and European Extreme Light Infrastructure facilities, are expected to deliver on-target laser intensities exceeding 10^22 W/cm^2. A novel regime of laser-matter interaction will ensue, where ultra-relativistic plasma effects are coupled with copious generation of high-energy photons and electron-positron pairs. This will pave the way for many transdisciplinary applications in fundamental and applied research, including the development of unprecedentedly intense, compact particle and radiation sources, the experimental investigation of relativistic astrophysical scenarios and tests of quantum electrodynamics theory.In recent years, most theoretical studies performed in this research field have focused on the impact of synchrotron photon emission and Breit-Wheeler pair generation, both directly induced by the laser field and believed to be dominant at intensities &gt;10^22 W/cm^2. At the lower intensities (≲10^21 Wcm^(-2)) currently attainable, by contrast, photon and pair production mainly originate from, respectively, Bremsstrahlung and Bethe-Heitler/Trident processes, all triggered by atomic Coulomb fields. The conditions for a transition between these two regimes have, as yet, hardly been investigated, particularly by means of integrated kinetic numerical simulations. The purpose of this PhD is precisely to study the aforementioned processes under various physical scenarios involving extreme laser-plasma interactions. This work is carried out using the particle-in-cell CALDER code developed at CEA/DAM which, over the past few years, had been enriched with modules describing the synchrotron and Breit-Wheeler processes.Our first study aimed at extending the simulation capabilities of CALDER to the whole range of photon and positron generation mechanisms arising during relativistic laser-plasma interactions. To this purpose, we have implemented modules for the Coulomb-field-mediated Bremsstrahlung, Bethe-Heitler and Trident processes. Refined Bremsstrahlung and Bethe-Heitler cross sections have been obtained which account for electronic shielding effects in arbitrarily ionized plasmas. Following validation tests of the Monte Carlo numerical method, we have examined the competition between Bremsstrahlung/Bethe-Heitler and Trident pair generations by relativistic electrons propagating through micrometer copper foils. Our self-consistent simulations qualitatively agree with a 0-D theoretical model, yet they show that the deceleration of the fast electrons due to target expansion significantly impacts pair production.We then address the competition between Bremsstrahlung and synchrotron emission from copper foils irradiated at 10^22 Wcm^(-2). We show that the maximum radiation yield (into &gt;10 keV photons) is achieved through synchrotron emission in relativistically transparent targets of a few 10 nm thick. The efficiency of Bremsstrahlung increases with the target thickness, and takes over synchrotron for &gt;2μm thicknesses. The spectral properties of the two radiation processes are analyzed in detail and correlated with the ultrafast target dynamics.Finally, we investigate the potential of nanowire-array targets to enhance the synchrotron yield of a 10^22 Wcm^(-2) femtosecond laser pulse. Several radiation mechanisms are identified depending on the target parameters and as a function of time. A simulation scan allows us to identify the optimal target geometry in terms of nanowire width and interspacing, yielding a ∼10% radiation efficiency. In this configuration, the laser-driven nanowire array rapidly expands to form a quasi-uniform, relativistically transparent plasma. Furthermore, we demonstrate that uniform sub-solid targets can achieve synchrotron yields as high as in nanowire arrays, but that the latter enable a strong emission level to be sustained over a broader range of average plasma density
APA, Harvard, Vancouver, ISO, and other styles
17

Duclos-Cianci, Guillaume. "Outils de calcul quantique tolérant aux fautes." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6770.

Full text
Abstract:
Le développement de qubits quantiques robustes représente un défi technologique de taille. Malgré plus d'une décennie de progrès et de percées, nous sommes toujours à la recherche du candidat idéal. La difficulté réside dans la nécessité de respecter une panoplie de critères stricts: on doit pouvoir préparer et mesurer les qubits rapidement et de manière fiable, préserver leur état pour de longs temps, appliquer avec précision un continuum de transformations, les coupler les uns aux autres, en entasser des milliers, voire des millions sur un seul dispositif, etc. Parallèlement à ces recherches, un autre groupe de scientifiques travaillent plutôt à l'élaboration de l'architecture permettant d'opérer ces qubits. Cette architecture inclut une couche logicielle de base dont l'étude constitue le domaine du calcul tolérant aux fautes: en encodant l'information dans des qubits logiques à l'aide des qubits physiques disponibles, il est possible d'obtenir un dispositif quantique dont les propriétés effectives sont supérieures à celles des composantes physiques sous-jacentes. En contrepartie, une surcharge doit être payée. Celle-ci peut être interprétée comme une forme de redondance dans l'information. De plus, les portes logiques applicables aux qubits encodés sont souvent trop limitées pour être utiles. La recherche dans ce domaine vise souvent à limiter la surcharge et à étendre l'ensemble des opérations applicables. Cette thèse présente les travaux que j'ai publiés avec mes collaborateurs durant mes études de doctorat. Ceux-ci touchent deux aspects importants du calcul tolérant aux fautes: l'élaboration de protocoles de calcul universel et la conception et l'étude d'algorithmes de décodage de codes topologiques stabilisateurs. Concernant l'élaboration de protocoles de calcul universel, j'ai développé avec l'aide de Krysta Svore chez Microsoft Research une nouvelle famille d'états ressources (Chapitre 2). Celle-ci permet, par l'injection d'états, d'effectuer une opération unitaire arbitraire à un qubit à un coût plus faible que les méthodes existant à ce moment. Plus tard, j'ai poursuivi ces travaux avec David Poulin pour élaborer une autre famille d'états ressources qui diminuent encore davantage les coûts de compilation de diverses portes unitaires à un qubit (Chapitre 3). Finalement, Jonas Anderson, David Poulin et moi avons montré comment il est possible de passer de manière tolérante aux fautes d'un encodage à un autre (Chapitre 4). Cette approche est qualitativement différente, car elle fournit un ensemble universel de portes sans passer par l'injection d'états. Durant mon doctorat, j'ai aussi généralisé de plusieurs manières la méthode de décodage par renormalisation du code topologique de Kitaev que j'ai développée au cours de ma maîtrise. Tout d'abord, j'ai collaboré avec Héctor Bombin et David Poulin dans le but de montrer que tous les codes topologiques stabilisateurs invariants sous translation sont équivalents, c'est-à-dire qu'ils appartiennent à la même phase topologique (Chapitre 5). Ce résultat m'a aussi permis d'adapter mon décodeur aux codes topologiques de couleurs stabilisateurs et à sous-systèmes. Puis, je l'ai adapté à une généralisation du code topologique de Kitaev sur des qudits (Chapitre 6). Ensuite, je l'ai généralisé au cas tolérant aux fautes, où les erreurs dans les mesures du syndrome sont prises en compte (Chapitre 7). Finalement, je l'ai appliqué à un nouveau code élaboré par Sergey Bravyi, le code de surface à sous-systèmes (Chapitre 8).
APA, Harvard, Vancouver, ISO, and other styles
18

Pelchat, Émilie. "Décodage Viterbi Dégénéré." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6595.

Full text
Abstract:
La correction d'erreur fera partie intégrante de toute technologie d'information quantique. Diverses méthodes de correction d'erreurs quantiques ont par conséquent été élaborées pour pallier les erreurs inévitables qui proviennent de la manipulation des qubits ainsi que de leur interaction inévitable avec l'environnement. Parmi les familles de codes de correction d'erreurs se trouvent les codes convolutifs, dont l'utilité envisagée est surtout pour protéger l'information quantique envoyée à travers un canal de communication bruyant. La méthode de décodage des codes convolutifs utilise des algorithmes d'estimation d'erreur basés sur un principe de maximum de vraisemblance. L'algorithme de Viterbi permet de déterminer ce maximum de vraisemblance de façon efficace. Cette méthode permet de trouver le mot code le plus probable et ce en utilisant des outils telle décodage par trellis. De plus, cet algorithme a une complexité linéaire avec le nombre de qubits encodés. Ce mémoire porte sur l'effet de la dégénérescence sur le décodage Viterbi. La dégénérescence est une propriété de lamécanique quantique ne possédant aucun analogue classique par laquelle des corrections distinctes peuvent corriger une erreur donnée. Les versions précédentes de décodage quantique suivant l'algorithme de Viterbi étaient sous-optimales parce qu'elles ne tenaient pas compte de la dégénérescence. La réalisation principale de ce mémoire est la conception d'un algorithme de décodage de Viterbi qui tient compte des erreurs dégénérées et nous les testons par des simulations numériques. Ces simulations démontrent qu'il y a effectivement un avantage à utiliser le décodeur Viterbi qui tient compte de la dégénérescence.
APA, Harvard, Vancouver, ISO, and other styles
19

Ollivier, Harold. "Eléments de théorie de l'information quantique, décohérence et codes correcteurs d'erreurs." Palaiseau, Ecole polytechnique, 2004. http://www.theses.fr/2004EPXX0027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Van, Assche Gilles. "Information-Theoretic aspects of quantum key distribution." Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211050.

Full text
Abstract:
<p>La distribution quantique de clés est une technique cryptographique permettant l'échange de clés secrètes dont la confidentialité est garantie par les lois de la mécanique quantique. Le comportement particulier des particules élémentaires est exploité. En effet, en mécanique quantique, toute mesure sur l'état d'une particule modifie irrémédiablement cet état. En jouant sur cette propriété, deux parties, souvent appelées Alice et Bob, peuvent encoder une clé secrète dans des porteurs quantiques tels que des photons uniques. Toute tentative d'espionnage demande à l'espion, Eve, une mesure de l'état du photon qui transmet un bit de clé et donc se traduit par une perturbation de l'état. Alice et Bob peuvent alors se rendre compte de la présence d'Eve par un nombre inhabituel d'erreurs de transmission.</p><p><p><p>L'information échangée par la distribution quantique n'est pas directement utilisable mais doit être d'abord traitée. Les erreurs de transmissions, qu'elles soient dues à un espion ou simplement à du bruit dans le canal de communication, doivent être corrigées grâce à une technique appelée réconciliation. Ensuite, la connaissance partielle d'un espion qui n'aurait perturbé qu'une partie des porteurs doit être supprimée de la clé finale grâce à une technique dite d'amplification de confidentialité.</p><p><p><p>Cette thèse s'inscrit dans le contexte de la distribution quantique de clé où les porteurs sont des états continus de la lumière. En particulier, une partie importante de ce travail est consacrée au traitement de l'information continue échangée par un protocole particulier de distribution quantique de clés, où les porteurs sont des états cohérents de la lumière. La nature continue de cette information implique des aménagements particuliers des techniques de réconciliation, qui ont surtout été développées pour traiter l'information binaire. Nous proposons une technique dite de réconciliation en tranches qui permet de traiter efficacement l'information continue. L'ensemble des techniques développées a été utilisé en collaboration avec l'Institut d'Optique à Orsay, France, pour produire la première expérience de distribution quantique de clés au moyen d'états cohérents de la lumière modulés continuement.</p><p><p><p>D'autres aspects importants sont également traités dans cette thèse, tels que la mise en perspective de la distribution quantique de clés dans un contexte cryptographique, la spécification d'un protocole complet, la création de nouvelles techniques d'amplification de confidentialité plus rapides à mettre en œuvre ou l'étude théorique et pratique d'algorithmes alternatifs de réconciliation.</p><p><p><p>Enfin, nous étudions la sécurité du protocole à états cohérents en établissant son équivalence à un protocole de purification d'intrication. Sans entrer dans les détails, cette équivalence, formelle, permet de valider la robustesse du protocole contre tout type d'espionnage, même le plus compliqué possible, permis par les lois de la mécanique quantique. En particulier, nous généralisons l'algorithme de réconciliation en tranches pour le transformer en un protocole de purification et nous établissons ainsi un protocole de distribution quantique sûr contre toute stratégie d'espionnage.</p><p><p><p>Quantum key distribution is a cryptographic technique, which allows to exchange secret keys whose confidentiality is guaranteed by the laws of quantum mechanics. The strange behavior of elementary particles is exploited. In quantum mechnics, any measurement of the state of a particle irreversibly modifies this state. By taking advantage of this property, two parties, often called Alice and bob, can encode a secret key into quatum information carriers such as single photons. Any attempt at eavesdropping requires the spy, Eve, to measure the state of the photon and thus to perturb this state. Alice and Bob can then be aware of Eve's presence by a unusually high number of transmission errors.</p><p><p><p>The information exchanged by quantum key distribution is not directly usable but must first be processed. Transmission errors, whether they are caused by an eavesdropper or simply by noise in the transmission channel, must be corrected with a technique called reconciliation. Then, the partial knowledge of an eavesdropper, who would perturb only a fraction of the carriers, must be wiped out from the final key thanks to a technique called privacy amplification.</p><p><p><p>The context of this thesis is the quantum key distribution with continuous states of light as carriers. An important part of this work deals with the processing of continuous information exchanged by a particular protocol, where the carriers are coherent states of light. The continuous nature of information in this case implies peculiar changes to the reconciliation techniques, which have mostly been developed to process binary information. We propose a technique called sliced error correction, which allows to efficiently process continuous information. The set of the developed techniques was used in collaboration with the Institut d'Optique, Orsay, France, to set up the first experiment of quantum key distribution with continuously-modulated coherent states of light.</p><p><p><p>Other important aspects are also treated in this thesis, such as placing quantum key distribution in the context of a cryptosystem, the specification of a complete protocol, the creation of new techniques for faster privacy amplification or the theoretical and practical study of alternate reconciliation algorithms.</p><p><p><p>Finally, we study the security of the coherent state protocol by analyzing its equivalence with an entanglement purification protocol. Without going into the details, this formal equivalence allows to validate the robustness of the protocol against any kind of eavesdropping, even the most intricate one allowed by the laws of quantum mechanics. In particular, we generalize the sliced error correction algorithm so as to transform it into a purification protocol and we thus establish a quantum key distribution protocol secure against any eavesdropping strategy.</p><br>Doctorat en sciences appliquées<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
21

Tale, kalachi Herve. "Sécurité des protocoles cryptographiques fondés sur la théorie des codes correcteurs d'erreurs." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR045/document.

Full text
Abstract:
Contrairement aux protocoles cryptographiques fondés sur la théorie des nombres, les systèmes de chiffrement basés sur les codes correcteurs d’erreurs semblent résister à l’émergence des ordinateurs quantiques. Un autre avantage de ces systèmes est que le chiffrement et le déchiffrement sont très rapides, environ cinq fois plus rapide pour le chiffrement, et 10 à 100 fois plus rapide pour le déchiffrement par rapport à RSA. De nos jours, l’intérêt de la communauté scientifique pour la cryptographie basée sur les codes est fortement motivé par la dernière annonce de la “National Institute of Standards and Technology" (NIST), qui a récemment initié le projet intitulé “Post-Quantum cryptography Project". Ce projet vise à définir de nouveaux standards pour les cryptosystèmes résistants aux attaques quantiques et la date limite pour la soumission des cryptosystèmes à clé publique est fixée pour novembre 2017. Une telle annonce motive certainement à proposer de nouveaux protocoles cryptographiques basés sur les codes, mais aussi à étudier profondément la sécurité des protocoles existants afin d’écarter toute surprise en matière de sécurité. Cette thèse suit cet ordre d’idée en étudiant la sécurité de plusieurs protocoles cryptographiques fondés sur la théorie des codes correcteurs d’erreurs. Nous avons commencé par l’étude de la sécurité d’une version modifiée du cryptosystème de Sidelnikov, proposée par Gueye et Mboup [GM13] et basée sur les codes de Reed-Muller. Cette modification consiste à insérer des colonnes aléatoires dans la matrice génératrice (ou de parité) secrète. La cryptanalyse repose sur le calcul de carrés du code public. La nature particulière des codes de Reed-Muller qui sont définis au moyen de polynômes multivariés binaires, permet de prédire les valeurs des dimensions des codes carrés calculés, puis permet de récupérer complètement en temps polynomial les positions secrètes des colonnes aléatoires. Notre travail montre que l’insertion de colonnes aléatoires dans le schéma de Sidelnikov n’apporte aucune amélioration en matière de sécurité. Le résultat suivant est une cryptanalyse améliorée de plusieurs variantes du cryptosystème GPT qui est un schéma de chiffrement en métrique rang utilisant les codes de Gabidulin. Nous montrons qu’en utilisant le Frobenius de façon appropriée sur le code public, il est possible d’en extraire un code de Gabidulin ayant la même dimension que le code de Gabidulin secret mais avec une longueur inférieure. Le code obtenu corrige ainsi moins d’erreurs que le code secret, mais sa capacité de correction d’erreurs dépasse le nombre d’erreurs ajoutées par l’expéditeur et par conséquent, un attaquant est capable de déchiffrer tout texte chiffré, à l’aide de ce code de Gabidulin dégradé. Nos résultats montrent qu’en fin de compte, toutes les techniques existantes visant à cacher la structure algébrique des codes de Gabidulin ont échoué. Enfin, nous avons étudié la sécurité du système de chiffrement de Faure-Loidreau [FL05] qui est également basé sur les codes de Gabidulin. Inspiré par les travaux précédents et, bien que la structure de ce schéma diffère considérablement du cadre classique du cryptosystème GPT, nous avons pu montrer que ce schéma est également vulnérable à une attaque polynomiale qui récupère la clé privée en appliquant l’attaque d’Overbeck sur un code public approprié. Comme exemple, nous arrivons en quelques secondes à casser les paramètres qui ont été proposés comme ayant un niveau de sécurité de 80 bits<br>Contrary to the cryptosystems based on number theory, the security of cryptosystems based on error correcting codes appears to be resistant to the emergence of quantum computers. Another advantage of these systems is that the encryption and decryption are very fast, about five times faster for encryption, and 10 to 100 times faster for decryption compared to RSA cryptosystem. Nowadays, the interest of scientific community in code-based cryptography is highly motivated by the latest announcement of the National Institute of Standards and Technology (NIST). They initiated the Post-Quantum cryptography Project which aims to define new standards for quantum resistant cryptography and fixed the deadline for public key cryptographic algorithm submissions for November 2017. This announcement motivates to study the security of existing schemes in order to find out whether they are secure. This thesis thus presents several attacks which dismantle several code-based encryption schemes. We started by a cryptanalysis of a modified version of the Sidelnikov cryptosystem proposed by Gueye and Mboup [GM13] which is based on Reed-Muller codes. This modified scheme consists in inserting random columns in the secret generating matrix or parity check matrix. The cryptanalysis relies on the computation of the square of the public code. The particular nature of Reed-Muller which are defined by means of multivariate binary polynomials, permits to predict the values of the dimensions of the square codes and then to fully recover in polynomial time the secret positions of the random columns. Our work shows that the insertion of random columns in the Sidelnikov scheme does not bring any security improvement. The second result is an improved cryptanalysis of several variants of the GPT cryptosystem which is a rank-metric scheme based on Gabidulin codes. We prove that any variant of the GPT cryptosystem which uses a right column scrambler over the extension field as advocated by the works of Gabidulin et al. [Gab08, GRH09, RGH11] with the goal to resist Overbeck’s structural attack [Ove08], are actually still vulnerable to that attack. We show that by applying the Frobeniusoperator appropriately on the public key, it is possible to build a Gabidulin code having the same dimension as the original secret Gabidulin code, but with a lower length. In particular, the code obtained by this way corrects less errors than thesecret one but its error correction capabilities are beyond the number of errors added by a sender, and consequently an attacker is able to decrypt any ciphertext with this degraded Gabidulin code. We also considered the case where an isometrictransformation is applied in conjunction with a right column scrambler which has its entries in the extension field. We proved that this protection is useless both in terms of performance and security. Consequently, our results show that all the existingtechniques aiming to hide the inherent algebraic structure of Gabidulin codes have failed. To finish, we studied the security of the Faure-Loidreau encryption scheme [FL05] which is also a rank-metric scheme based on Gabidulin codes. Inspired by our precedent work and, although the structure of the scheme differs considerably from the classical setting of the GPT cryptosystem, we show that for a range of parameters, this scheme is also vulnerable to a polynomial-time attack that recovers the private key by applying Overbeck’s attack on an appropriate public code. As an example we break in a few seconds parameters with 80-bit security claim
APA, Harvard, Vancouver, ISO, and other styles
22

Chenel, Aurélie. "Dynamique et contrôle de systèmes quantiques ouverts." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01061945.

Full text
Abstract:
L'étude des effets quantiques, comme les cohérences quantiques, et leur exploitation en contrôle par impulsion laser constituent encore un défi numérique pour les systèmes de grande taille. Pour réduire la dimensionnalité du problème, la dynamique dissipative se focalise sur un sous-espace quantique dénommé 'système', qui inclut les degrés de liberté les plus importants. Le système est couplé à un bain thermique d'oscillateurs harmoniques. L'outil essentiel de la dynamique dissipative est la densité spectrale du bain, qui contient toutes les informations sur le bain et sur l'interaction entre le système et le bain. Plusieurs stratégies complémentaires existent. Nous adoptons une équation maîtresse quantique non-markovienne pour décrire l'évolution de la matrice densité associée au système. Cette approche, développée par C. Meier et D.J. Tannor, est perturbative en fonction du couplage entre le système et le bain, mais pas en fonction de l'interaction avec un champ laser. Le but est de confronter cette méthodologie à des systèmes réalistes calibrés par des calculs de structure électronique ab initio. Une première étude porte sur la modélisation du transfert d'électron ultrarapide à une hétérojonction oligothiophène-fullerène, présente dans des cellules photovoltaïques organiques. La description du problème en fonction d'une coordonnée brownienne permet de contourner la limitation du régime perturbatif. Le transfert de charge est plus rapide mais moins complet lorsque la distance R entre les fragments oligothiophène et fullerène augmente. La méthode de dynamique quantique décrite ci-dessus est ensuite combinée à la Théorie du Contrôle Optimal (OCT), et appliquée au contrôle d'une isomérisation, le réarrangement de Cope, dans le contexte des réactions de Diels-Alder. La prise en compte de la dissipation dès l'étape d'optimisation du champ permet à l'algorithme de contrôle de contrer la décohérence induite par l'environnement et conduit à un meilleur rendement. La comparaison de modèles à une et deux dimensions montre que le contrôle trouve un mécanisme adapté au modèle utilisé. En deux dimensions, il agit activement sur les deux coordonnées du modèle. En une dimension, le décohérence est minimisée par une accélération du passage par les états délocalisés situés au-dessus de la barrière de potentiel.
APA, Harvard, Vancouver, ISO, and other styles
23

Bloch, M. "Algorithme de réconciliation et méthodes de distribution quantique de clés adaptées au domaine fréquentiel." Phd thesis, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00373723.

Full text
Abstract:
Longtemps considérée comme une curiosité de laboratoire, la distribution quantique de clés s'est aujourd'hui imposée comme une solution viable de sécurisation des données. Les lois fondamentales de la physique quantique permettent en effet de garantir la sécurité inconditionnelle des clés secrètes distribuées. Nous avons proposé un système de distribution quantique de clés par photons uniques exploitant un véritable codage en fréquence de l'information. Cette nouvelle méthode de codage permet de s'affranchir de dispositifs interférométriques et offre donc une grande robustesse. Un démonstrateur basé sur des composants optiques intégrés standard a été réalisé et a permis de valider expérimentalement le principe de codage. Nous avons ensuite étudié un système mettant en ?uvre un protocole de cryptographie quantique par « variables continues », codant l'information sur l'amplitude et la phase d'états cohérents. Le dispositif proposé est basé sur un multiplexage fréquentiel du signal porteur d'information et d'un oscillateur local. Les débits atteints par les systèmes de distribution de clés ne sont pas uniquement limités par des contraintes technologiques, mais aussi par l'efficacité des protocoles de réconciliation utilisés. Nous avons proposé un algorithme de réconciliation de variables continues efficace, basé sur des codes LDPC et permettant d'envisager de réelles distributions de clés à haut débit avec les protocoles à variables continues.
APA, Harvard, Vancouver, ISO, and other styles
24

Yemen, Olfa. "Application des codes cycliques tordus." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00866858.

Full text
Abstract:
Le sujet porte sur une classe de codes correcteurs d erreurs dits codes cycliques tordus, et ses applications a l'Informatique quantique et aux codes quasi-cycliques. Les codes cycliques classiques ont une structure d'idéaux dans un anneau de polynômes. Ulmer a introduit en 2008 une généralisation aux anneaux dits de polynômes tordus, une classe d'anneaux non commutatifs introduits par Ore en 1933. Dans cette thèse on explore le cas du corps a quatre éléments et de l'anneau produit de deux copies du corps a deux éléments.
APA, Harvard, Vancouver, ISO, and other styles
25

Hauteville, Adrien. "Nouveaux protocoles et nouvelles attaques pour la cryptologie basée sur les codes en métrique rang." Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0088/document.

Full text
Abstract:
La sécurité de la cryptographie à clés publiques repose sur des problèmes mathématiques difficiles, notamment en théorie des nombres, tels que la factorisation pour RSA ou le logarithme discret pour ElGamal. Cependant les progrès des algorithmes rendent les protocoles basés sur des problèmes de théorie des nombres de moins en moins efficaces. De plus, l'arrivée de l'ordinateur quantique rendrait ces cryptosystèmes inutilisables. La cryptographie basée sur les codes en métrique rang est une alternative crédible pour concevoir des cryptosystèmes post-quantiques en raison de sa rapidité et de la faible taille de ses clés. Le but de cette thèse est d'étudier les problèmes difficiles en métrique rang et les algorithmes permettant de les résoudre, ainsi que de chercher de nouvelles attaques et de nouvelles primitives basées sur ces problèmes<br>Security of public keys cryptography is based on difficult mathematic problems, especially in number field theory, such as the factorization for RSA or the discrete logarithm for ElGamal. However, algorithms are more and more efficient to solve these problems. Furthermore, quantum computers would be able to easily break these cryptosystems. Code-based cryptography in rank metric is a solid candidate to design new postquatum cryptosystems since it is fast and has low weight keysize. The goals of this thesis are to study hard problems in rank metric and algorithms which solve them, also to search for new attacks and new primitives based on these problems
APA, Harvard, Vancouver, ISO, and other styles
26

Bloch, Matthieu. "Algorithme de réconciliation et méthodes de distribution quantique de clés adaptées au domaine fréquentiel." Phd thesis, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00203634.

Full text
Abstract:
Longtemps considérée comme une curiosité de laboratoire, la distribution quantique de clés s'est aujourd'hui imposée comme une solution viable de sécurisation des données. Les lois fondamentales de la physique quantique permettent en effet de garantir la sécurité inconditionnelle des clés secrètes distribuées.<br /><br />Nous avons proposé un système de distribution quantique de clés par photons uniques exploitant un véritable codage en fréquence de l'information. Cette nouvelle méthode de codage permet de s'affranchir de dispositifs interférométriques et offre donc une grande robustesse. Un démonstrateur basé sur des composants optiques intégrés standard a été réalisé et a permis de valider expérimentalement le principe de codage. Nous avons ensuite étudié un système mettant en oeuvre un protocole de cryptographie quantique par « variables continues », codant l'information sur l'amplitude et la phase d'états cohérents. Le dispositif proposé est basé sur un multiplexage fréquentiel du signal porteur d'information et d'un oscillateur local. <br /><br />Les débits atteints par les systèmes de distribution de clés ne sont pas uniquement limités par des contraintes technologiques, mais aussi par l'efficacité des protocoles de réconciliation utilisés. Nous avons proposé un algorithme de réconciliation de variables continues efficace, basé sur des codes LDPC et permettant d'envisager de réelles distributions de clés à haut débit avec les protocoles à variables continues.
APA, Harvard, Vancouver, ISO, and other styles
27

Lodewyck, Jérôme. "Dispositif de distribution quantique de clé avec desétats cohérents à longueur d'onde télécom." Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00130680.

Full text
Abstract:
La distribution quantique de clé permet la transmission d'une clé de cryptage secrète entre deux interlocuteurs distants. Les lois de la physique quantique garantissent la sécurité inconditionnelle du transfert.<br />L'utilisation de variables continues dans le domaine de l'information quantique, récemment apparue, permet de concevoir des systèmes de distribution quantique de clé qui ne nécessitent que des composants standards de l'industrie des télécommunications. Ces composants ouvrent la voie vers les hauts débits caractéristiques des liaisons en fibres optiques.<br />Nous avons réalisé un système complet de distribution quantique de clé qui utilise l'amplitude et la phase d'états cohérents pulsés de la lumière modulées selon une distribution gaussienne. Notre système est exclusivement réalisé avec des fibres optiques, et atteint un taux de répétition de 1 MHz. Nous avons caractérisé l'information secrète transmise par ce dispositif. Nous avons validé cette caractérisation en réalisant des attaques quantiques originales qui couvrent l'ensemble des perturbations qui peuvent être envisagées sur la transmission.<br />Nous avons ensuite adapté des algorithmes de correction d'erreur et d'amplification de secret qui produisent une clé secrète à partir des données expérimentales. Enfin, nous avons conçu un ensemble logiciel autonome qui intègre la gestion de l'expérience aux algorithmes de correction d'erreur.<br />Ces travaux nous ont permis de distribuer une clé secrète sur une fibre de 25 km avec un taux finalde 1 kb/s. Le système que nous avons réalisé sera intégré dans un réseau de distribution quantique de clé faisant intervenir plusieurs collaborateurs européens.
APA, Harvard, Vancouver, ISO, and other styles
28

Jouguet, Paul. "Performance et sécurité de dispositifs de distribution quantique de clés à variables continues." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0048/document.

Full text
Abstract:
L’objet de cette thèse est l’étude de la distribution quantique de clés, une primitive cryptographique qui permet à deux utilisateurs distants de générer une quantité arbitraire de clé secrète et cela y compris en présence d’un espion, sous réserve qu’ils partagent un secret initial. Nous restreignons notre étude aux protocoles employant des variables continues et démontrons expérimentalement une implémentation entièrement fibrée fonctionnant à 80 km sur une fibre dédiée en prenant en compte toutes les imperfections expérimentales connues. Pour atteindre une telle distance de fonctionnement, nous avons mis au point des codes correcteurs d’erreurs spécifiques fonctionnant près de la limite théorique de Shannon dans des régimes de faible rapport signal à bruit. Nous envisageons également la possibilité d’attaques par canaux cachés qui ne sont donc pas prises en compte dans la preuve de sécurité du système et proposons des contre-mesures. Enfin, nous étudions la compatibilité de notre système avec des canaux de communication intenses qui se propagent sur la même fibre optique<br>This thesis focuses on a cryptographic primitive that allows two distant parties to generate an arbitrary amount of secret key even in the presence of an eavesdropper, provided that they share a short initial secret message. We focus our study on continuous-variable protocols and demonstrate experimentally an all-fiber system that performs distribution of secret keys at 80 km on a dedicated fiber link while taking into account all known imperfections. We could extract secret keys at such a distance bydesigning specific error correcting codes that perform very close to Shannon’s bound for low signal to noise ratios. We also consider side-channel attacks that are not taken into account into the system security proof and propose some countermeasures. Finally, we study our system compability with intense communication channels that propagate on the same optical fiber
APA, Harvard, Vancouver, ISO, and other styles
29

Hliwa, Mohamed. "Traitement simplifie des interactions moleculaires en chimie quantique." Toulouse 3, 1988. http://www.theses.fr/1988TOU30038.

Full text
Abstract:
Calculs ab initio sur le systeme hautement degenere cr h: mise en evidence d'un fort couplage entre etats ioniques et neutres et analyse des fonctions d'onde dans une description diabatique. Proposition d'une methode perturbative pour calcul des energies de dispersion entre un systeme versatil a (decrit dans une grande base) et un systeme quasi passif b (traite a l'approximation en coeur gele et caracterise par sa polarisabilite); calcul scf + ci de (a + b gele), du champ electrique exerce par a sur b, et de ses fluctuations, a l'aide d'un hamiltonien effectif; application a l'etude des courbes de potentiel des premiers etats excites des molecules diatomiques de ar avec na, k ou mg. Emploi de la theorie des pseudopotentiels et des potentiels modeles pour le calcul de potentiels impulsifs d'atomes inertes transferables a des systemes moleculaires; a partir de ces potentiels, calcul d'energies de dispersion applicable a la spectroscopie d'atomes alcalins en matiere de gaz rare
APA, Harvard, Vancouver, ISO, and other styles
30

Sardelli, Francesco. "Aspects de la gravitation quantique à boucles : la représentation polymère, la jauge temporelle et lien entre approches covariante et canonique." Thesis, Tours, 2011. http://www.theses.fr/2011TOUR4050/document.

Full text
Abstract:
Dans cette thèse, nous avons étudié quelques aspects fondamentaux de la gravitation quantique à boucles (Loop Quantum Gravity ou LQG). Tout d'abord, nous avons discuté le choix de la représentation polymère dans ce programme de quantification de la relativité générale. Pour cela, nous avons considéré la corde bosonique comme modèle-jouet sur lequel on peut tester les méthodes de quantification de la LQG. Dans cette optique, nous avons introduit et étudié une formulation originale de la corde bosonique, dite corde algébrique. Ensuite, nous nous sommes intéressé au problème important du choix de la jauge temporelle en LQG. Ce choix permet de passer d'un groupe de jauge non-compact (le groupe de Lorentz) à un groupe de jauge compact (le groupe des rotations) et ainsi d'obtenir un spectre discret des opérateurs de géométrie. Nous avons montré qu'il est possible de ne pas faire le choix de la jauge temporelle, de pouvoir quantifier malgré tout la théorie et de retrouver un spectre discret des opérateurs de géométrie même avec un groupe de jauge non-compact. Enfin, nous nous sommes attaché à comprendre le lien entre les approches canonique et covariante afin de tester la validité du nouveau modèle de mousse de spins introduit par Engle, Peireira, Rovelli et Livine (EPRL)<br>No summary available
APA, Harvard, Vancouver, ISO, and other styles
31

Verney, Lucas. "Strongly driven quantum Josephson circuits." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEE008/document.

Full text
Abstract:
Dans cette thèse, nous étudions le comportement de circuits Josephson sous l'action de champs microondes forts. Les circuits Josephson dans le régime quantique sont une brique pour émuler une variété d'hamiltoniens, utiles pour traiter l'information quantique. Nous étudions ici le transmon, constitué d'une jonction Josephson et d'un condensateur en parallèle. À travers des simulations numériques et en comparant aux résultats expérimentaux, nous montrons que ces champs conduisent à une instabilité qui envoie le circuit sur des états qui ne sont plus confinés par le potentiel Josephson en cosinus. Quand le transmon occupe de tels états, le circuit se comporte comme si la jonction avait été remplacée par un interrupteur ouvert et toute non-linéarité est perdue, ce qui se traduit par des limitations sur les amplitudes maximales des hamiltoniens émulés. Dans une deuxième partie, nous proposons et étudions un circuit alternatif basé sur un transmon avec une inductance en parallèle, qui fournit un confinement harmonique. La dynamique de ce circuit est stable et bien capturée par un modèle moyennisé qui fournit alors un outil pratique pour l'analyse analytique ou les simulations rapides. Nous avons développé un nouvel outil de simulations modulaire et basé sur la théorie de FloquetMarkov pour permettre de simuler facilement d'autres circuits Josephson en évitant les limitations des analyses perturbatives. Enfin, nous étudions les propriétés d'une version asymétrique du Josephson Ring Modulator, un circuit actuellement utilisé pour l'amplification et la conversion, comme source de non-linéarité pour émuler les hamiltoniens d'interaction à deux et quatre photons requis pour l'encodage de l'information quantique sur des états de chats de Schrödinger<br>In this thesis, we investigate the behavior of Josephson circuits under the action of strong microwave drives. Josephson circuits in the quantum regime are a building block to emulate a variety of Hamiltonians, useful to process quantum information. We are here considering a transmon device, made of a Josephson junction and a capacitor in parallel. Through numerical simulations and comparison with experimental results, we show that these drives lead to an instability which results in the escape of the circuit state into states which are no longer confined by the Josephson cosine potential. When the transmon occupies such states, the circuit behaves as if the junction had been removed and all non-linearities are lost, which translates into limitations on the emulated Hamiltonian strengths. In a second part, we propose and study an alternative circuit consisting of a transmon device with an extra inductive shunt, providing a harmonic confinement. This circuit is found to be stable for all pump powers. The dynamics of this circuit is also well captured by a time-averaged model, providing a useful tool for analytical investigation and fast numerical simulations. We developed a novel numerical approach that avoids the built-in limitations of perturbative analysis to investigate the dynamical behavior of both of these circuits. This approach, based on the Floquet-Markov theory, resulted in a modular simulation framework which can be used to study other Josephson-based circuits. Last, we study the properties of an asymmetric version of the Josephson Ring Modulator, a circuit currently used for amplification and conversion, as a more robust source of non-linearity to engineer two-photon and four-photon interaction Hamiltonians required for the catstate encoding of quantum information
APA, Harvard, Vancouver, ISO, and other styles
32

Aragon, Nicolas. "Cryptographie à base de codes correcteurs d’erreurs en métrique rang et application." Thesis, Limoges, 2020. http://www.theses.fr/2020LIMO0061.

Full text
Abstract:
La cryptographie basée sur les codes correcteurs d’erreurs est un des domaines permettant de construire des cryptosystèmes post-quantiques, c’est à dire résistants à l’ordinateur quantique. Contrairement à la factorisation et au logarithme discret,qui sont les deux problèmes les plus utilisés à l’heure actuelle en cryptographie, aucun algorithme n’est connu pour résoudre le problème de décodage de codes correcteurs aléatoires en temps polynomial avec un ordinateur quantique.Dans cette thèse, on se concentre plus particulièrement sur la cryptographie basée sur la métrique rang, dans laquelle on étudie des codes correcteurs munis de la métrique rang plutôt que la métrique de Hamming. Cette métrique présente l’avantage de pouvoir construire des cryptosystèmes avec de plus petites tailles de clés, mais est moins mature que la métrique de Hamming. Nous présentons dans un premier temps deux nouveaux algorithmes de décodage en métrique rang : le premier est un algorithme combinatoire permettant de résoudre le problème de décodage dans le cas de codes aléatoires, et permet donc de mieux estimer la complexité des attaques. Le second est une amélioration de l’algorithme de décodage pour les codes Low Rank Parity Check (LRPC). Nous présentons ensuite deux cryptosystèmes basés sur les codes : un schéma de signature en métrique rang, Durandal, qui est une adaptation de l’approche de Schnorr-Lyubashevsky en métrique euclidienne, et une amélioration du schéma de chiffrement Hamming Quasi-Cyclic (HQC) en métrique de Hamming, pour lequel on propose une nouvelle analyse du taux d’échec de déchiffrement et l’utilisation d’une autre famille de codes correcteurs d’erreurs. Nous nous intéressons ensuite à deux adaptations de l’approche de Schnorr-Lyubashevsky, une en métrique de Hamming et l’autre en métrique rang, pour lesquelles on donne des cryptanalyses permettant de retrouver les clés publiques des schémas en utilisant la fuite d’information dans les signatures. Enfin nous présentons les choix effectués pour implémenter les cryptosystèmes en métrique rang dans la bibliothèque Rank-Based Cryptography (RBC)<br>Code-based cryptography is one of the fields allowing to build post-quantum cryptosystems, i.e secure against a quantum computer. Contrary to factorization and discrete logarithm, which are the two most used problems in cryptography right now, no algorithm is known to solve the decoding problem for random codes in polynomial time using a quantum computer. In this thesis, we focus on rank-based cryptography, in which we study codes based on the rank metric instead of the Hamming metric. This metric has the advantage of allowing to build cryptosystems with lower key sizes, but is less mature than the Hamming metric. Firstly, we present two new decoding algorithms in the rank metric : the first one is a combinatorial algorithm solving the decoding problem for random codes, hence allowing to better estimate the complexity of the attacks. The second one is an improvement of the decoding algorithm for Low Rank Parity Check (LRPC). We then present two code-based cryptosystems : a rank-based signature scheme which is an adaptation of the Schnorr-Lyubashevsky approach in the Euclidean metric, and an improvement of the Hamming Quasi-Cyclic (HQC) encryption scheme, for which we propose a new analysis of the decryption failure rate and the use of another family of error correcting codes. We then study two adaptations of the Schnorr-Lyubashevsky approach : one in the Hamming metric and the other one in the rank metric, for which we propose cryptanalysis allowing to recover secret keys using information leakage from the signatures. Finally we present the choices used to implement rank-based cryptosystems in the Rank-Based Cryptography (RBC) library
APA, Harvard, Vancouver, ISO, and other styles
33

Sciolla, Bruno. "Dynamique quantique hors-équilibre et systèmes désordonnés pour des atomes ultrafroids bosoniques." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00734641.

Full text
Abstract:
Durant cette thèse, je me suis intéressé à deux thématiques générales qui peuvent être explorées dans des systèmes d'atomes froids : d'une part, la dynamique hors-équilibre d'un système quantique isolé, et d'autre part l'influence du désordre sur un système fortement corrélé à basse température. Dans un premier temps, nous avons développé une méthode de champ moyen, qui permet de résoudre la dynamique unitaire dans un modèle à géométrie particulière, le réseau complètement connecté. Cette approche permet d'établir une correspondance entre la dynamique unitaire du système quantique et des équations du mouvement classique. Nous avons mis à profit cette méthode pour étudier le phénomène de transition dynamique qui se signale, dans des modèles de champ moyen, par une singularité des observables aux temps longs, en fonction des paramètres initiaux ou finaux de la trempe. Nous avons montré l'existence d'une transition dynamique quantique dans les modèle de Bose-Hubbard, d'Ising en champ transverse et le modèle de Jaynes-Cummings. Ces résultats confirment l'existence d'un lien fort entre la présence d'une transition de phase quantique et d'une transition dynamique.Dans un second temps, nous avons étudié un modèle de théorie des champs relativiste avec symétrie O(N) afin de comprendre l'influence des fluctuations sur ces singularités. À l'ordre dominant en grand N, nous avons montré que la transition dynamique s'apparente à un phénomène critique. En effet, à la transition dynamique, les fonctions de corrélations suivent une loi d'échelle à temps égaux et à temps arbitraires. Il existe également une longueur caractéristique qui diverge à l'approche du point de transition. D'autre part, il apparaît que le point fixe admet une interprétation en terme de particules sans masse se propageant librement. Enfin, nous avons montré que la dynamique asymptotique au niveau du point fixe s'apparente à celle d'une trempe d'un état symétrique dans la phase de symétrie brisée. Le troisième volet de cette thèse apporte des éléments nouveaux pour la compréhension du diagramme des phases du modèle de Bose-Hubbard en présence de désordre. Pour ce faire,nous avons utilisé et étendu la méthode de la cavité quantique en champ moyen de Ioffe et Mézard, qui doit être utilisée avec la méthode des répliques. De cette manière, il est possible d'obtenir des résultats analytiques pour les exposants des lois de probabilité de la susceptibilité.Nos résultats indiquent que dans les différents régimes de la transition de phase de superfluide vers isolant, les lois d'échelle conventionnelles sont tantôt applicables, tantôt remplacées par une loi d'activation. Enfin, les exposants critiques varient continûment à la transition conventionnelle.
APA, Harvard, Vancouver, ISO, and other styles
34

Demange, Loïc. "Mise en œuvre de BIKE, vulnérabilités et contre-mesures." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS035.

Full text
Abstract:
BIKE est un schéma d'encapsulation de clés (KEM) post-quantique sélectionné pour le quatrième tour de la campagne de standardisation du NIST. Sa sécurité repose sur la robustesse du problème de décodage du syndrome pour les codes quasi-cycliques et fournit des performances compétitives par rapport aux autres candidats du 4e tour, ce qui le rend pertinent pour une utilisation dans des cas concrets. La communauté scientifique a fortement encouragé l'analyse de sa résistance aux attaques par canaux auxiliaires et plusieurs travaux ont déjà souligné diverses faiblesses. Pour les corriger, ces derniers ont proposé des contre-mesures ad hoc. Toutefois, contrairement à la ligne de recherche bien documentée sur le masquage des algorithmes basés sur les réseaux, la possibilité de protéger génériquement les algorithmes basés sur des codes par du masquage n'a été étudiée que de manière marginale dans un article de 2016 de Cong Chen et al. À ce stade de la campagne de standardisation, il est important d'évaluer la possibilité de masquer entièrement le schéma BIKE et le coût qui en résulte en termes de performances. L'objectif de cette thèse est donc de proposer un algorithme de BIKE dont la sécurité a été prouvée, en réalisant l'ensemble du processus de manière masquée, et ce sans jamais manipuler directement les données sensibles. Pour ce faire, nous utilisons des "gadgets'", qui sont des sortes de fonctions masquées, identifiées par des niveaux de non-interférence : NI (non-interference) et SNI (strong non-interference). En termes simples, SNI permet aux gadgets d'être composables : ils peuvent être appelés l'un après l'autre, avec les mêmes variables. NI, en revanche, exige plus de précautions en termes de variables manipulées. Les gadgets font l'objet de preuves, basées sur le modèle ISW, permettant de donner un véritable argument de sécurité et de robustesse à l'algorithmique. Si le schéma est prouvé sûr de bout en bout, il est a priori robuste. Il convient de noter que le masquage a été initialement développé pour les schémas symétriques et qu'il était basé sur le masquage booléen. Ce n'est que récemment que l'on a commencé à s'intéresser aux schémas asymétriques, et en particulier aux schémas basés sur les réseaux. Dans ce but, le masquage arithmétique a été le principal utilisé, bien que des conversions booléennes aient pu être effectuées pour réaliser certaines choses (comparaison de valeurs entre autres). Aujourd'hui, nous sommes en mesure de proposer une implémentation masquée de BIKE, basée sur un algorithme prouvé sûr. Comme BIKE manipule des données binaires, nous nous sommes concentrés sur le masquage booléen. Nous avons donc dû :- réutiliser les gadgets existants,- adapter et optimiser les gadgets de masquage arithmétique existants,- créer de nouveaux gadgets. A chaque fois, nous avons dû effectuer des preuves, et également prouver leur composition au sein de chaque fonction de BIKE, pour arriver à la preuve du schéma intégral. Pour rappel, BIKE repose sur des QC-MDPC, et son arithmétique est basée sur des polynômes denses et creux, il a donc fallu faire des choix concernant la représentation et la manière dont les calculs sont effectués. Nous avons donc décidé d'explorer deux voies (entièrement dense et hybride creux-dense) et de voir ce qui était le plus pertinent entre les deux. En plus de l'implémentation complète en C, des benchmarks ont été réalisés, ce qui nous a permis de voir où les performances étaient limitées et où se trouvaient les goulots d'étranglement. Au final, nous proposons un algorithme BIKE masqué intégralement et prouvé sûr, avec son implémentation en C et divers benchmarks permettant de juger de ses performances<br>BIKE is a post-quantum key encapsulation scheme (KEM) selected for the fourth round of the NIST standardization campaign. Its security is based on the robustness of the syndrome decoding problem for quasi-cyclic codes, and provides competitive performance with the other candidates in the 4th round, making it relevant for use in real-life cases. The scientific community has strongly encouraged analysis of its resistance to auxiliary channel attacks, and several works have already highlighted various weaknesses. To correct them, the latter have proposed ad hoc countermeasures. However, in contrast to the well-documented line of research on masking latice-based algorithms, the possibility of generically protecting code-based algorithms through masking has only been marginally investigated in a 2016 paper by Cong Chen et al. At this stage of the standardization campaign, it is important to evaluate the possibility of fully masking the BIKE scheme and the resulting cost in terms of performance. The aim of this thesis is therefore to propose a BIKE algorithm whose security has been proven, by carrying out the entire process in a masked way, without ever directly manipulating sensitive data. To achieve this, we use "gadgets", which are masked functions identified by levels of non-interference: NI (non-interference) and SNI (strong non-interference). In simple terms, SNI allows gadgets to be composable: they can be called one after the other, with the same variables. NI, on the other hand, requires greater care in terms of the variables manipulated. Gadgets are the subject of proofs, based on the ISW model, giving a real argument of safety and robustness to the algorithmic. If the scheme is proven to be end-to-end safe, it is a priori robust.It should be noted that masking was initially developed for symmetrical schemes and was based on Boolean masking. It's only recently that we've begun to take an interest in asymmetrical schemes, and in particular lattice-based schemes. For this purpose, arithmetic masking has been the main one used, although Boolean conversions could be performed to achieve certain things (value comparison among others).Today, we're able to offer a masked implementation of BIKE, based on a proven safe algorithm. As BIKE manipulates binary data, we focused on Boolean masking. We therefore had to :- reuse existing gadgets,- adapt and optimize existing arithmetic masking gadgets,- create new gadgets. Each time, we had to carry out proofs, and also prove their composition within each BIKE function, to arrive at the full scheme proof.As a reminder, BIKE is based on QC-MDPCs, and its arithmetic is based on dense, sparse polynomials, so choices had to be made regarding representation and the way calculations are performed. We therefore decided to explore two paths (fully dense and hybrid sparse-dense) and see what was most relevant between the two. In addition to the full C implementation, benchmarks were carried out, enabling us to see where performance was limited and where the bottlenecks were.In the end, we propose a fully masked and proven-safe BIKE algorithm, with its C implementation and various benchmarks to judge its performance
APA, Harvard, Vancouver, ISO, and other styles
35

Chen, Chi. "Lanthanide Energy Transfer Donors on Nanoparticles Surfaces : From Fundamental Mechanisms to Multiplexed Biosensing." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS196/document.

Full text
Abstract:
Le multiplexage optique basé sur des nanoparticules offre de nombreux avantages pour la biodétection et l'imagerie à multiparamètres. Toutefois, les modifications apportées à un paramètre entraînent également la modification d’autres paramètres. Par conséquent, la couleur, la durée de vie ou l’intensité ne peuvent pas être utilisées, respectivement, comme paramètre indépendant. Cette thèse peut être divisée en deux aspects. Le premier concerne le développement d'un multiplexage à une seule nanoparticule avec un temps résolu, basé sur le transfert d'énergie par résonance de type Förster (FRET) des complexes de lanthanides aux points quantiques (QD) et ensuite aux colorants fluorescents. Une investigation systématique de toutes les différentes combinaisons avec une large gamme de donneurs et d'accepteurs sur le QD est présentée, et les résultats expérimentaux sont comparés à la modélisation théorique. Le résultat ne contribue pas seulement à une compréhension complète de ces voies de transfert d'énergie compliquée entre multi donneurs / accepteurs sur des nanoparticules, mais offre également la possibilité d'utiliser les modèles pour développer de nouvelles stratégies permettant de préparer le QD avec une couleur, une durée de vie et une intensité réglables de manière indépendante. Le deuxième aspect porte sur le mécanisme de transfert d'énergie du Tb à la nanoparticule d'or (AuNP). Le transfert d'énergie par nanosurface (NSET) s'est révélé être un mécanisme opérationnel pour l'extinction des PL par les AuNP, une information importante pour le développement, la caractérisation et l'application de nanobiocapteurs basés sur l'extinction des PL par les AuNP<br>Optical multiplexing based on nanoparticles provides many advantages for multiparameter biosensing and imaging. However, the changes in one parameter also lead to changing of other parameters, and thus, color, lifetime, or intensity could not be used as an independent parameter, respectively. This thesis can be divided into two aspects. The first one focuses on developing time-resolved single-nanoparticle multiplexing based on Förster resonance energy transfer (FRET) from lanthanide complexes to quantum dot (QD) to fluorescent dyes. Systematical investigation of all different combinations with a broad range of numbers of donors and acceptors on QD are presented, and the experimental results are compared with theoretical modelling. The result do not only contribute to a full understanding of such complicated multi donor-acceptor energy transfer pathways on nanoparticles but also open the opportunity to use the models for developing new strategies to achieve the QD with independent tunable color, lifetime and intensity. The second aspect focuses on the energy transfer mechanism from Tb to gold nanoparticle (AuNP). Nanosurface energy transfer (NSET) proved to be an operational mechanism in PL quenching by AuNPs, which is important information for the development, characterization, and application of nanobiosensors based on PL quenching by AuNPs
APA, Harvard, Vancouver, ISO, and other styles
36

Cordier, Martin. "Photon-pair generation in hollow-core photonic-crystal fiber." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT024/document.

Full text
Abstract:
Les sources de paires de photons sont un composant essentiel des technologies émergentes en information quantique. De nombreux travaux ont permis des avancées importantes utilisant des processus non linéaires d'ordre 2 dans les cristaux et les guides d'ondes, et d'ordre 3 dans les fibres. Les limitations viennent dans le premier cas, des pertes et en particulier des pertes de couplage avec les fibres optiques et dans le second cas, du bruit dû à l'effet Raman dont le spectre est très large dans les fibres de silice. Ce projet propose une nouvelle architecture basée sur des fibres à cristal photonique à coeur creux (FCPCC) que l'on peut remplir de liquide ou de gaz non linéaire. Cette configuration permet la génération paramétrique de paires de photons corrélés par mélange à quatre ondes sans l'inconvénient de la diffusion Raman. Cette technologie offre une large gamme de paramètres à explorer en s'appuyant sur les propriétés physiques et linéaires contrôlables des FCPCC et la possibilité de remplissage de ces fibres avec des fluides aux propriétés non-linéaires variées. En effet, par une conception judicieuse de la FCPCC et un choix approprié du liquide ou du gaz, il est possible de (i) contrôler la dispersion et la transmission pour générer des photons corrélés sur une large gamme spectrale avec la condition d'accord de phase la plus favorable, (ii) d'ajuster la taille de coeur de la fibre et/ou sa forme pour augmenter sa non-linéarité ou son efficacité de couplage avec d'autres fibres et (iii) de s'affranchir totalement de l'effet Raman si on utilise par exemple un gaz monoatomique, ou d'obtenir des raies Raman fines, aisément discriminables des raies paramétriques dans le cas d'un liquide<br>Photon pair sources are an essential component of the emerging quantum information technology. Despite ingenious proposals being explored in the recent years based on either second order nonlinear processes in crystals and waveguides or on third order processes in fibers, limitations remain, due to losses and specifically coupling losses in the former case and due to Raman generation in silica, giving rise to a broad spectrum noise in the latter. These limitations have been challenging to lift because of the limited alternative nonlinear materials that fulfil the conditions for the generation of bright and high fidelity photon pairs in integrable photonic structures. In the present project, we develop a new and versatile type of photonic architecture for quantum information applications that offers access to a variety of nonlinear optical materials that are micro-structured in optical fiber forms to generate photon pairs, without the drawback of Raman scattering and with a large design parameter-space. Indeed, with a careful design of the HCPCF along with the appropriate choice of fluid, one can (i) control the dispersion and the transmission to generate photons with the most favourable phase-matching condition over a large spectral range, (ii) adjust the fibre core size and/or shape to enhance nonlinearity or the coupling efficiency with other fibres, (iii) totally suppress the Raman effect in monoatomic gases for instance or have only narrow and separated Raman lines that can thus be easily separated from the useful parametric lines in liquids
APA, Harvard, Vancouver, ISO, and other styles
37

Debris-Alazard, Thomas. "Cryptographie fondée sur les codes : nouvelles approches pour constructions et preuves ; contribution en cryptanalyse." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS482.

Full text
Abstract:
Dans cette thèse nous nous intéressons à la cryptographie utilisant des codes correcteurs. Cette proposition, née du système de chiffrement à clef publique de McEliece, est à ce jour considérée comme post-quantique, ie : pouvant être utilisée sur ordinateur classique et résistante face à un adversaire muni d'un ordinateur quantique. Nous avons élaboré des attaques contre le schéma de signature RankSign, qui faisait partie des soumissions au processus de standardisation post-quantique du NIST, ainsi que contre le premier chiffrement fondée sur l'identité utilisant des codes. Nous proposons une nouvelle signature utilisant des codes : Wave. Nous avons introduit une nouvelle trappe, les codes (U,U+V)-généralisés. Nous montrons comment les utiliser pour décoder en des distances où le décodage est génériquement difficile. Nous montrons ensuite que pour ces codes la stratégie de Gentry Peikert et Vaikuntanathan, fructueuse en cryptographie utilisant des réseaux, peut être suivie. Cela est en partie dû à une méthode de rejet qui évite toute fuite d’information. Notre système repose sur le décodage générique à grande distance. Nous avons alors étudié la complexité de résolution de ce problème et proposé le meilleur algorithme connu à ce jour pour le résoudre. Nous étudions une des rares alternatives du décodage par ensemble d'information : le décodage statistique. Nous améliorons les techniques pour trouver des équations de parité de modéré puis nous donnons la première étude asymptotique de ce décodeur grâce à de nouveaux sur les polynômes de Krawtchouk. Nous montrons alors que le décodage statistique n'est pas compétitif avec les décodeurs par ensemble d'information<br>In this thesis we study code-based cryptography. By this term we mean the crypto-systems whose security relies on the generic decoding problem. The first of those systems is a public key encryption scheme proposed by McEliece in 1978. Four decades later, no attack is known to present a serious threat on the system, even on a quantum computer. This makes code-based cryptography a credible candidate for post-quantum cryptography. First we give attacks against the code-based signature scheme RankSign, which was proposed to the post-quantum standardization of the NIST, and against the first code-based Identity-Based-Encryption scheme. On the other hand we propose a new code-based signature scheme: Wave. For this design we introduced a new trapdoor, the family of generalized (U,U+V)-codes. We show how to decode them for weights such that the generic decoding problem is hard. Then we show how to follow the Gentry-Peikert and Vaikuntanathan strategy which has proved to be fruitful in lattice-based cryptography. This was done by avoiding any information leakage of signatures thanks to an efficient rejection sampling. Furthermore, for the first time we propose a crypto-system whose security relies on the generic decoding problem for high distances. We give in this thesis the best known algorithm to solve this problem. At last, we study one of the few alternatives to information set decoding: the statistical decoding. First we improve algorithms to compute parity-check equations of small or moderate weight and we make the first asymptotic study of its complexity. We show that statistical decoding is not competitive with information set decoding contrary to what was claimed. This study relies on new results about Krawtchouk polynomials
APA, Harvard, Vancouver, ISO, and other styles
38

Oberli, Solène. "Molecular double core hole spectroscopy : the role of electronic and nuclear dynamics." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS011/document.

Full text
Abstract:
Les propriétés de la matière peuvent être révélées en faisant interagir la matière avec la lumière. En particulier, les spectroscopies à rayons X sont largement utilisées pour étudier la structure électronique d'éléments isolés ou d'atomes et molécules dans un environnement donné, et sont spécifiques de la nature de l'élément. De telles capacités démontrent leur potentiel en terme d'analyse chimique. Le développement récent des lasers à électrons libres à rayons X (XFEL en anglais) permet de sonder la matière avec une résolution spatiale (angström) et temporelle (femtoseconde) hors de portée avec les lasers optiques et les sources synchrotron de troisième génération. Les caractéristiques uniques du rayonnement XFEL sont exploitées dans plusieurs domaines de recherche, comme la chimie, la physique et la biologie. En particulier, la spectroscopie de double trous a connu un nouvel essor avec l'apparition des XFELs. Les états double trous possèdent deux lacunes électroniques en couche interne. En régime XFEL, ces états sont produits principalement par l'absorption séquentielle de deux photons X d'une impulsion laser ultracourte (femtoseconde) et intense, avec la formation d'un état intermédiaire simplement ionisé. Au cours de cette thèse, nous avons étudié la formation de molécules doublement ionisées en couche de cœur, induite par l'absorption séquentielle de deux photons X d'une impulsion laser femtoseconde et intense. D'une part, nous mettons en évidence l'influence de la dynamique nucléaire sur les processus d'ionisation en couche de cœur. D'autre part, nous démontrons qu'un contrôle actif sur la compétition entre l'absorption de photon et le déclin Auger dans l'état intermédiaire simplement ionisé est possible en faisant varier la durée de l'impulsion laser. Afin d'atteindre ces objectifs, nous avons développé pour la première fois un modèle dépendant du temps et purement quantique, qui traite explicitement la dynamique nucléaire ainsi que l'absorption de photon, tandis que le déclin Auger est décrit de manière phénoménologique. Ce travail de recherche théorique ouvre la voie à une description complète de la formation de molécules doublement ionisées en couche de cœur en régime XFEL<br>Properties of matter can be revealed through its interaction with light. In particular, X-ray based spectroscopies are widely used to gain insight into the local electronic structure of isolated elements or atoms or molecules embedded in an environment, and are element specific. Such capabilities evidence their potential as tools for chemical analysis. The recent development of X-ray free electron laser (XFEL) allows to probe matter with spatial (angström) and temporal (femtosecond) resolutions out of reach so far with optical lasers or third generation synchrotron sources. The unique characteristics of XFEL radiation are exploited in several areas, such as chemistry, physics and biology. In particular, double core hole spectroscopy, whose sensitivity is considerably enhanced compared to conventional X-ray spectroscopies, is on the rise. Double core hole states, also referred as hollow states, are characterized by two electron vacancies in the inner shell(s). In the XFEL regime, the dominant pathway to produce them is the sequential absorption of two x-ray photons, where a singly core ionized species is produced in the intermediate step. In the present thesis, we tackle the study of double core hole state formation induced by the sequential absorption of two x-ray photons from an intense femtosecond laser pulse. On one hand, we bring forward the influence of the nuclear dynamics on core photoionization processes. On the other hand, we demonstrate that an active control over the competition between photoabsorption and Auger decay in the intermediate single core hole state is possible by varying the laser pulse duration. In pursuing these goals, we develop for the first time a time-dependent full quantum model treating both the photon absorption and the nuclear dynamics explicitly as well as the Auger decay phenomenologically. This purely theoretical work paves the road for a complete description of molecular double core hole state formation in th XFEL regime
APA, Harvard, Vancouver, ISO, and other styles
39

Richmond, Tania. "Implantation sécurisée de protocoles cryptographiques basés sur les codes correcteurs d'erreurs." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES048/document.

Full text
Abstract:
Le premier protocole cryptographique basé sur les codes correcteurs d'erreurs a été proposé en 1978 par Robert McEliece. La cryptographie basée sur les codes est dite post-quantique car il n'existe pas à l'heure actuelle d'algorithme capable d'attaquer ce type de protocoles en temps polynomial, même en utilisant un ordinateur quantique, contrairement aux protocoles basés sur des problèmes de théorie des nombres. Toutefois, la sécurité du cryptosystème de McEliece ne repose pas uniquement sur des problèmes mathématiques. L'implantation, logicielle ou matérielle, a également un rôle très important pour sa sécurité et l'étude de celle-ci face aux attaques par canaux auxiliaires/cachés n'a débuté qu'en 2008. Des améliorations sont encore possibles. Dans cette thèse, nous proposons de nouvelles attaques sur le déchiffrement du cryptosystème de McEliece, utilisé avec les codes de Goppa classiques, ainsi que des contre-mesures correspondantes. Les attaques proposées sont des analyses de temps d'exécution ou de consommation d'énergie. Les contre-mesures associées reposent sur des propriétés mathématiques et algorithmiques. Nous montrons qu'il est essentiel de sécuriser l'algorithme de déchiffrement en le considérant dans son ensemble et non pas seulement étape par étape<br>The first cryptographic protocol based on error-correcting codes was proposed in 1978 by Robert McEliece. Cryptography based on codes is called post-quantum because until now, no algorithm able to attack this kind of protocols in polynomial time, even using a quantum computer, has been proposed. This is in contrast with protocols based on number theory problems like factorization of large numbers, for which efficient Shor's algorithm can be used on quantum computers. Nevertheless, the McEliece cryptosystem security is based not only on mathematical problems. Implementation (in software or hardware) is also very important for its security. Study of side-channel attacks against the McEliece cryptosystem have begun in 2008. Improvements can still be done. In this thesis, we propose new attacks against decryption in the McEliece cryptosystem, used with classical Goppa codes, including corresponding countermeasures. Proposed attacks are based on evaluation of execution time of the algorithm or its power consumption analysis. Associate countermeasures are based on mathematical and algorithmic properties of the underlying algorithm. We show that it is necessary to secure the decryption algorithm by considering it as a whole and not only step by step
APA, Harvard, Vancouver, ISO, and other styles
40

Dragoi, Vlad Florin. "Approche algébrique pour l'étude et la résolution de problèmes algorithmiques issus de la cryptographie et la théorie des codes." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR046/document.

Full text
Abstract:
Tout d’abord, mon sujet de recherche porte sur le cryptographie à clé publique, plus précisément la cryptographie basée sur la théorie des codes correcteurs d’erreurs. L’objectif principal de cette thèse est d’analyser la sécurité des systèmes de chiffrement. Pour cela j’étudie les propriétés structurelles des différentes familles de codes linéaires utilisées dans la pratique. Mon travail de recherche s’est orienté de maniéré naturelle, vers l’étude des deux dernières propositions de cryptosystèmes, plus exactement le schéma de McEliece à base des codes MDPC [MTSB13](moderate parity check codes) et des codes Polaires [SK14]. Dans le cas des codes MDPC on a mis en évidence une faiblesse importante au niveau des clés utilisées par les utilisateurs du système. En effet, on a proposé un algorithme très efficace qui permet de retrouver une clé privé à partir d’une clé publique. Ensuite on a compté le nombre des clés faibles et on a utilisé le problème d’équivalence de codes pour élargir le nombre de clés faibles. On a publié notre travail de recherche dans une conférence internationale en cryptographie [BDLO16]. Ensuite on a étudié les codes Polaires et leur application à la cryptographie à clé publique. Depuis leur découverte par E. Arikan [Arı09], les codes Polaires font partie des famille de codes les plus étudié du point de vue de le théorie de l’information. Ce sont des codes très efficaces en terme de performance car ils atteignent la capacité des canaux binaires symétriques et ils admettent des algorithmes d’encodage et décodage très rapides. Néanmoins, peu des choses sont connu sur leur propriétés structurelles. Dans ce cadre la, on a introduit un formalisme algébrique qui nous a permit de révéler unegrande partie de la structure de ces codes. En effet, on a réussi à répondre à des questions fondamentales concernant les codes Polaires comme : le dual ou la distance minimale d’un code Polaire, le groupe des permutations ou le nombre des mots de poids faible d’un code Polaire. On a publié nos résultats dans une conférence internationale en théorie de l’information [BDOT16]. Par la suite on a réussi à faire une cryptanalyse complète du schéma de McEliece à base des codes Polaires. Ce résultat a été une application directe des propriétés découvertes sur les codes Polaires et il a été publié dans une conférence internationale en cryptographie post-quantique [BCD+16]<br>First of all, during my PhD I focused on the public key cryptography, more exactly on the code-based cryptography. The main motivation is to study the security of the latest encryption schemes. For that, I analyzed in detail the structural properties of the main code families. Thus, my research was naturally directed to the study of the McEliece based encryption schemes, among which the latest MDCP based variant [MTSB13] and Polar codes variant [SK14]. In the case of the MDPC based variant, we manage to reveal an important weakness regarding the key pairs that are used in the protocol. Indeed, we proposed an efficient algorithm that retrieves the private key given the public key of the scheme. Next we counted the proportion of weak keys and we used the code equivalence problem to extend the number of weak keys. We published our results in an international conference in cryptography [BDLO16]. Next we studied the Polar codes and their application to public key cryptography.Since they were discovered by Arikan [Arı09], Polar codes are part of the most studied from an information theory point of view, family of codes. In terms of performance they are really efficient since they are capacity achieving over the Binary Discrete Memoryless Channels and they allow extremely fast encoding and decoding algorithms. Nonetheless, few facts are known about their structure. In this context, we have introduced an algebraic formalism which allowed us to reveal a big part of the structure of Polar codes. Indeed, we have managed to answer fundamental questions regarding Polar codes such as the dual, the minimum distance, the permutation group and the number of minimum weight codewords of a Polar code. Our results were published in an international conference in information theory [BDOT16]. We also managed to completely cryptanalyze the McEliece variant using Polar codes. The attack was a direct application of the aforementioned results on the structural properties of Polar codes and it was published in an international conference in postquantum cryptography [BCD+16]
APA, Harvard, Vancouver, ISO, and other styles
41

Huang, Dongyang. "Experimental and Theoretical Investigation of Core-Mantle Interations." Thesis, Université de Paris (2019-....), 2019. https://theses.md.univ-paris-diderot.fr/HUANG_Dongyang_va2.pdf.

Full text
Abstract:
La formation du noyau sur Terre se produit par différenciation métal-silicate dans un océan magmatique. Ce processus d'équilibrage permet d'éliminer les éléments sidérophiles du manteau jusqu'au noyau, en fixant la composition en éléments traces des deux réservoirs. Des expériences de cloisonnement métal-silicate à haute pression et à haute température peuvent être utilisées pour faire correspondre les abondances observées et, comme le cloisonnement des éléments est fonction de P, T, fO2 et de la composition, elles limitent davantage les conditions thermochimiques de la formation du noyau. Dans cette thèse, des expériences de partitionnement métal-silicate superliquide des éléments sidérophiles et lithophiles (Ni, Cr, V, Nb, Ta et W) ont été réalisées dans des cellules d'enclumes de diamant chauffées au laser dans des conditions P-T jusqu'à 94 GPa et 4500K. Dans ces conditions P-T extrêmes, on constate que (1) aucun effet mesurable de la concentration de nickel sur le partage du Ni, du Cr et du V, l'alliage Fe-Ni est chimiquement idéal sur une large gamme de concentrations de Ni (3.5 à 48.7 % en poids) ; (2) Nb, Ta et W deviennent plus siderophile avec la température et en interaction avec l'oxygène du métal alors que Nb et W deviennent moins siderophile sous pression. En nous basant sur le paramétrage de nos résultats à haute teneur en P en fonction de P, T, fO2 et de la composition, nous avons modélisé une formation de noyaux à plusieurs stades et montré que le rapport Nb/Ta sous-chondritique dans le manteau peuvent s'expliquer soit en oxydant soit en réduisant les conditions de formation du noyau.Après le dernier événement de différenciation noyau-manteau, le noyau de la Terre est considéré comme fixé. On a récemment proposé que le SiO2 puisse se cristalliser à partir d'un alliage liquide de Fe-Si-O au sommet du noyau pendant le refroidissement séculaire, et flotter en raison de sa flottabilité négative, modifiant ainsi sa composition avec le temps. Nous avons étudié ici le champ liquidus des binaires Fe-Si, Fe-O et ternaires Fe-Si-O à la pression d'enveloppe du manteau du noyau et une gamme de températures en utilisant la dynamique moléculaire ab initio, englobant toutes les valeurs plausibles pour le noyau à travers le temps géologique. Nous constatons que les liquides restent bien mélangés avec des propriétés ternaires identiques au mélange de propriétés binaires. Des simulations en deux phases du SiO2 solide et du Fe liquide montrent une dissolution à des températures égales ou supérieures à 4100 K, ce qui suggère que la cristallisation du SiO2 ainsi que l'immiscibilité du liquide dans le Fe-Si-O sont peu probables dans le noyau terrestre<br>Core formation on Earth occurs by metal-silicate differentiation in a magma ocean. This equilibration process strips siderophile elements from the mantle to the core, setting the trace-element composition of both reservoirs. High-pressure and high-temperature metal-silicate partitioning experiments can be used to match the observed abundances, and because element partitioning is a function of P, T, fO2 and composition, further constrain the thermochemical conditions of core formation. In this thesis, superliquidus metal-silicate partitioning experiments of both siderophile and lithophile elements (Ni, Cr, V, Nb, Ta and W) have been performed in laser-heated diamond anvil cells at P-T conditions up to 94 GPa and 4500 K. At these extreme P-T conditions, it is found that (1) no measurable effect of nickel concentration on the partitioning of Ni, Cr and V, the Fe-Ni alloy is chemically ideal over a broad range of Ni concentrations (3.5 to 48.7 wt%); (2) Nb, Ta and W become more siderophile with temperature and by interacting with oxygen in the metal, whereas Nb and W become less siderophile with pressure. Based on the parameterization of our high-P results as a function of P, T, fO2 and composition, we have modelled a multi-stage core formation and shown that subchondritic Nb/Ta ratio in the mantle can be explained by either oxidizing or reducing core-forming conditions. After the last event of core-mantle differentiation, the Earth’s bulk core is considered frozen from then onwards. It was recently proposed that SiO2 could crystallize from a Fe-Si-O liquid alloy at the top of the core during secular cooling, and float out due to its negative buoyancy, hence changing core composition over time. Here we investigated the liquidus field of Fe-Si, Fe-O binaries and Fe-Si-O ternaries at core-mantle boundary pressure and a range of temperatures using ab initio molecular dynamics, encompassing any plausible values for the core through geological time. We find that the liquids remain well mixed with ternary properties identical to the mixing of binary properties. Two‐phase simulations of solid SiO2 and liquid Fe show dissolution at temperatures at and above 4100 K, suggesting that SiO2 crystallization as well as liquid immiscibility in Fe–Si–O is unlikely to occur in Earth's core
APA, Harvard, Vancouver, ISO, and other styles
42

Leduc, Lætitia. "2D quantum Gravity in the Kähler formalism." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE013/document.

Full text
Abstract:
Le but de cette thèse est d'étudier lagravité quantique bidimensionnelle. Nousnous intéressons plus particulièrement auxapproches dans le continu. Ces dernièresreposent principalement sur l'action deLiouville qui décrit le couplage entre théorieconforme et gravité. Si cette action, bienconnue, est très bien comprise, la mesure del'intégrale fonctionnelle sur l'espace desmétriques pose plus de problèmes. Toutefois,sous l'hypothèse simplificatrice d'une mesurede champ libre, la dépendance en l'aire de lafonction de partition de la gravité quantiqueen présence de matière conforme a pu êtreétablie. Malgré l'hypothèse assez forte sur lamesure d'intégration, cette formule (diteKPZ), a été confirmée par des calculs issusde méthodes discrètes, et ce dans plusieurscas particuliers. Grâce à une nouvelle méthode derégularisation spectrale en espace courbe,cette mesure d'intégration a récemment puêtre proprement définie. Dans cette thèse,un calcul perturbatif de la fonction departition à aire fixée est mené, jusqu'à troisboucles, en considérant l'action de Liouvilleet des surfaces de Kähler de genrequelconque (qui coïncident avec l'ensembledes surfaces à deux dimensions). Desdivergences apparaissant dans les calculs, ilest nécessaire de renormaliser les actions.Cette renormalisation peut être interprétéecomme une renormalisation de la mesured'intégration. Nos résultats à deux bouclessont finis, indépendants de la régularisationet compatibles avec le résultat KPZ, maisdépendent d'un paramètre libre. L'étude àtrois boucles suggère que la théorie resterenormalisable aux ordres supérieurs maisdépend de nouveaux paramètres à chaqueordre. Ces résultats ont été généralisé dansle cas du tore au couplage à de la matièrenon-conforme<br>Nowadays, two-dimensional quantumgravity can be studied in two differentapproaches, one involving discrete theories(triangulation, matrix model...), the othercontinuous ones, mainly based on the socalled Liouville action which universallydescribes the coupling of any conformal fieldtheory to gravity. While the Liouville action isrelatively well understood, the appropriatefunctional integral measure is however rathercomplicated. Nevertheless, a formula for thearea dependence of the quantum gravitypartition function in the presence of conformalmatter has been obtained, under thesimplifying assumption of a free-fieldmeasure. Notwithstanding its non-rigorousderivation, this formula, often referred to asthe KPZ formula, has since been verified inmany instances and has scored manysuccesses. Recent developments of efficient multiloopregularization methods on curved spacetimesopened the way for a precise and welldefinedperturbative computation of the fixedareapartition function in the Kählerformalism. In this work, a first-principlescomputation of the fixed-area partitionfunction in the Liouville theory is performed,up to three loops. Among other things, therole of the non-trivial quantum gravityintegration measure is highlighted.Renormalization is required and may beinterpreted as a renormalization of theintegration measure. This leads to a finite andregularization-independent result at two loops,that is more general than the KPZ result,although compatible. Finiteness andregularization-independence seem alsopossible at three loops. These results aregeneralized to the coupling to non-conformalmatter on the torus
APA, Harvard, Vancouver, ISO, and other styles
43

Leclere, Cédric. "Spectroscopies X et diffraction anomale de boîtes quantiques GaN et d'hétéro-structure III-N : inter-diffusion et ordre à courte distance." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01072456.

Full text
Abstract:
Le travail illustré par ce manuscrit de thèse présente l'étude structurale d'hétéro-structures semi-conductrices à base de nitrures d'éléments III avec l'un des outils les plus puissants de la recherche scientifique: le rayonnement synchrotron. La cartographie haute résolution de l'espace réciproque, la diffraction anomale multi-longueur d'onde, la spectroscopie d'absorption X et la spectroscopie en condition de diffraction nous ont permis de caractériser la structure à l'échelle atomique de différentes régions d'un même système. Dans un premier temps, nous montrons que les nanofils GaN sur Si(111) ont une polarité N et proposons un mécanisme de nucléation. Dans un second temps, nous mettons en évidence un phénomène d'inter-diffusion stimulée par la contrainte dans les boîtes quantiques GaN / AlN recuites à haute température. Enfin, nous observons la présence d'un ordre local à courte distance dans les nanofils coeur-coquille InGaN / GaN. Cette organisation atomique pourrait être induite par la présence de contrainte, nous avons initié une étude de l'anisotropie de l'ordre à courte distance pour explorer cette hypothèse.
APA, Harvard, Vancouver, ISO, and other styles
44

Bouvier, Clément. "Preuves expérimentales d'un transport de surface sur un isolant topologique 3D HgTe/CdTe sus contrainte." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENY078/document.

Full text
Abstract:
Cette thèse porte sur la caractérisation et l'étude du magnéto-transport sur les structures de type HgTe/CdTe sous contraintes développant un transport de surface topologique tout en étant isolant en volume ; on nomme cette nouvelle classe de matériau isolant topologique 3D.Je développerai dans cette thèse la caractérisation et définition d'un isolant topologique 2D/3D pour ensuite me focalise plus particulièrement sur les systèmes II-VI HgTe/CdTe.Une partie de la thèse développe les conditions de croissance réalisées au CEA/Leti ainsi que la caractérisation du matériau par rayon X. La structure de bande des surfaces est caractérisée par ARPES.Une troisième partie traite de la fabrication des barres de Hall nécessaires à la caractérisation du comportement topologique des surfaces. La partie développement expérimentale est également fournie.La dernière partie traite du magnétotransport réalisé avec ces barres de Hall à faible et fort champ magnétique. Le comportement ambipolaire, une phase de Berry non triviale, l'antilocalisation faible et l'effet Hall quantique entier dans ces structures sont abordés tout tentant de fournir une interprétation des résultats obtenus<br>This report deal with caracterisation of magnetotransport in HgTe/CdTe structures bulk strained in that a topological surface transport is predicted. This new kind of material is a 3D topological insulator.In this thesis, I will explain what means 3D/2D topological insulator before focusing on II-VI system lijke HgTe/CdTe.Next, I will discuss about growing conditions performed in CEA/Leti and then material caracterisation by X-ray. Surfaces band structures were also, observed by ARPES, underligned in the report.A third part deal with Hall bars design and conception in order to emphasize topological behavior of these surfaces.The last part shows the results obtained on these Hall bars with magnetotransport at low and high magnetic field. Ambipolaire behaviour, non trivial Berry phase, weak antilocalization and the interger quantum hall effect in HgTe/CdTe structures are studied and a possible interpretation of these results are given
APA, Harvard, Vancouver, ISO, and other styles
45

Barbier, Margaux. "Génération de paires de photons corrélés par mélange à quatre ondes spontané dans des fibres microstructurées à coeur liquide." Thesis, Palaiseau, Institut d'optique théorique et appliquée, 2014. http://www.theses.fr/2014IOTA0011/document.

Full text
Abstract:
Une technique couramment employée pour développer les sources de paires de photons corrélés indispensables au domaine des télécommunications quantiques repose sur le processus non linéaire de mélange à quatre ondes, qui peut avoir lieu directement dans le cœur d’une fibre optique. Cette architecture fibrée permet de s’adapter au mieux aux besoins des réseaux de communications quantiques (en particulier en minimisant les pertes par couplage lors de la connexion de la source aux autres composants du réseau). L’utilisation d’une fibre microstructurée plutôt que d’une fibre de silice conventionnelle permet d’ajuster les propriétés de dispersion de la fibre et d’optimiser l’efficacité du processus non linéaire. Cependant, les sources fibrées usuelles, à cœur de silice, présentent une limitation majeure : leur pureté quantique est fortement dégradée par la diffusion Raman spontanée, qui survient elle aussi dans le cœur en silice de la fibre. Pour s’affranchir de ce problème, notre idée est de remplacer le cœur en silice par un cœur liquide, en utilisant une fibre microstructurée à cœur creux rempli d’un liquide non linéaire. Nos recherches nous ont ainsi conduits à faire la première démonstration expérimentale de génération de paires de photons corrélés dans une fibre à cœur liquide, et à montrer que, grâce aux propriétés Raman particulières des liquides (dont le spectre Raman se présente en général sous la forme de raies très fines), il était possible de réduire de plusieurs ordres de grandeur le niveau de diffusion Raman spontanée dans la source. Ce travail ouvre donc la voie au développement de sources de paires de photons corrélés fibrées de très haute qualité quantique<br>Quantum telecommunication technologies rely on correlated photon pair sources, which are often based on the third-order nonlinear process of spontaneous four-wave mixing in silica-core photonic crystal fibres. A fibred architecture is advantageous because it minimizes the coupling losses between the optical source and the other components of quantum communication networks. Moreover, using a photonic crystal fibre rather than a conventional silica fibre offers the possibility of improving the photon generation (thanks to a small effective core area) and extending the wavelength coverage (thanks to dispersion management through the microstructuration design). However, the performances of silica-core photonic crystal fibre sources are limited in terms of quantum purity, because of the ubiquitous spontaneous Raman scattering process, which is a source of uncorrelated broadband noise photons in silica. We propose an original solution to this Raman problem by replacing the silica core by a liquid core, thanks to a hollow-core photonic crystal fibre filled with a nonlinear liquid. We actually performed the first experimental demonstration of the generation of correlated photon pairs in a liquid-core fibre, and demonstrated that, thanks to the specific Raman properties of liquids (which usually exhibit thin-line Raman spectra), it is possible to reduce the Raman noise level by several orders of magnitude. This work opens the way for the development of high quantum quality correlated photon pair fibred sources
APA, Harvard, Vancouver, ISO, and other styles
46

Liang, Liang. "Simulation ab initio des défauts étendus du Ti & en présence d'interstitiels H et O." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX009/document.

Full text
Abstract:
RÉSUMÉ : Le but de cette thèse est d’étudier en ab initio l’influence des solutés hydrogène ou oxygène sur les défauts étendus dans le titane alpha. Les résultats sont divisés en trois parties. Dans la première partie le site interstitiel octaédrique du Ti-alpha est trouvé être le site énergétiquement le plus favorable pour un H ou un O. Les calculs avec différentes concentrations en H ou O montrent que la présence d’H augmente le volume tandis que O a un effet inverse. La présence d’H en soluté diminue légèrement les constantes élastiques, la présence d’O a un effet opposé. Deux nouvelles SF sont trouvées dans la deuxième partie : une faute 0,57·(c+a) dans le plan π2 et 0,215·[1-102] dans le plan π1. La deuxième est reliée à la faible énergie de formation de la macle {10-11}. Un mécanisme de dissociation triple du cœur de la dislocation vis c+a est proposé. Mais cette dissociation ne semble pas se produire spontanément à partir d'un cœur de dislocation initialement parfait. Puisque la ségrégation à la faute signifie une diminution de l’énergie de faute, nous déduisons de nos calculs de ségrégation que la présence d'O rend sans doute la formation des SF énergétiquement plus difficile, contrairement au cas d’H. H ségrége fortement au cœur d’une dislocation vis a, avec une énergie variant de 0,06 à 0,30 eV, tandis que O y segrége très difficilement. Positionnés dans les sites les plus internes du cœur d’une dissociation prismatique métastable, en glissement, H et O induisent une dissociation dans le plan π1 ou vers une configuration prisme-π1 mélangée. Les barrières d'énergie de Peierls mesurées avec H et O dans différents sites et avec différentes concentrations montrent que H rend le glissement de la dislocation plus difficile, augmentant ainsi sans doute la cission critique résolue dans le plan prismatique, ce qui est en accord avec les mesures expérimentales. Mais les effets de H ne sont pas assez grands pour induire un glissement dévié vers le plan π1 et la dislocation continuera à glisser dans un même plan prismatique. Avec un O, la barrière d'énergie de Peierls est extrêmement élevée, beaucoup plus que celle pour un glissement dans le plan π1 ou un glissement dans le plan prismatique le plus proche. Du glissement dévié devrait ainsi être induit. Finalement, trois méthodes différentes de déformations de macles sont utilisées. Les stabilités structurale des joints de macles dépendent de leurs caractères structuraux intrinsèques mais aussi des modes de déformation appliqués. La macle la plus observée, {10-12}, et la macle {11-22} ne résistent pas à une déformation de plus de 1% ou 2% selon l’axe c. La présence de H ou O ségrégés améliorent la stabilité des macles {10-12} et {11-22}. Un modèle de dipôle de dislocations de mâclage (TD) est proposé pour permettre de simuler une TD dans une super-cellule de petite taille. Pour {10-12} et sa TD, les énergies de ségrégation de H et O mesurées au niveau du joint permettent de valider ce modèle. H et O peuvent se distribuer de manière plus ou moins homogène au joint et niveau de la TD mais pas dans les sites interstitiels de la couche atomique liée à la TD<br>ABSTRACT: The aim of this thesis is to study the influence of hydrogen or oxygen solutes on extended defects in alpha titanium by ab initio calculation. Results are divided into three parts. In a first part the octahedral interstitial site of alpha-Ti is found energetically more favorable for a H or an O atom. The presence of H increases the volume while O has the opposite effect. The presence of H slightly decreases the elastic constants of alpha-Ti while O has an opposite effect. In a second part two new SFs are found: 0.57·(c+a) on π2 and 0.215·[1-102] on π1 plane. The second one is related to the low formation energy of the {10-11} twin boundary. A c+a screw dislocation 3-part dissociation mechanism is proposed. However the c+a screw core tends to spread differently according to the initial core position and a complete 3-part dissociation is not found, which may mean that such a dissociation is not easily obtainable from an initially perfect dislocation core. As segregation to SF means a decrease of the SF energy, the presence of O may make the SF formation energetically more difficult, contrary to H case. H strongly segregates to the a screw dislocation core region with segregation energies varing from 0.06 to 0.3 eV while O hardly segregates to it. Both H and O in core sites change the meta-stable gliding prismatic dissociation to π1 plane or a prism-π1 plane mixed configuration. According to our measurements of Peierls energy barriers with H or O in different sites and concentrations, H makes the gliding more difficult, thus increasing the CRSS in prismatic plane, in agreement with experimental measurements. The effect of H is not big enough to induce a cross-slip of the gliding a-screw dislocation to the π1 plane and that screw will prefer to keep on gliding in its same prismatic plane. The Peierls energy barrier is extremely increased when an O is present in the core position, much higher than the barrier for π1 plane glide or a glide in the nearest prismatic plane. A cross-slip could happen in this case. In the last part, three different deformations are applied to TBs. Their structural stabilities depend not only on their intrinsic characters at the atomistic level but also on the deformation mode applied. {10-12}, {11-22} TB structures fail for deformations as low as 1% or 2% along the c-axis. The {11-21} and the {10-11} TBs are much more resistant. The presence of segregated H and O enhances the {10-12} and {11-22} TB limited stability. A twinning disconnection dipole model is proposed which allows the simulation of a TD in a size limited supercell. Segregation energy calculations with the {10-12} TB and its TD validate the model at the TB level and show that H and O should distribute more or less homogeneously to the TD core and the TB, with only a slight preference to the TD core although not at the interstitial sites of the atomic layer related to the disconnection step itself
APA, Harvard, Vancouver, ISO, and other styles
47

Lejeune, Julien. "Propriétés de commutation des analogues CoFe du bleu de Prusse : vers un contrôle de la position en énergie des états stable et métastable." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00853239.

Full text
Abstract:
Les composés à commutation électronique constituent une large famille de systèmes particulièrement prometteuse, notamment pour le stockage de l'information à l'échelle moléculaire. Parmi ces composés, les analogues du bleu de Prusse cobalt-fer (ABP AxCoFe) sont des polymères inorganiques formés d'enchaînements Co-N≡C-Fe pouvant présenter deux états électroniques CoII(HS)-N≡C-FeIII(BS) et CoIII(BS)-N≡C-FeII(BS) (HS : haut spin ; BS : bas spin) aux propriétés structurales et électroniques bien distinctes. La transition électronique entre ces deux états peut être contrôlée de manière réversible par une grande variété de paramètres chimique (insertion de cations alcalins) et physiques (température, pression, irradiation). Ces propriétés de photo-commutation sont particulièrement intéressantes pour le développement de mémoires optiques à l'échelle moléculaire.Afin de comprendre les propriétés électroniques des ABP AxCoFe, nous nous sommes intéressés à l'interaction entre les centres métalliques via le pont cyanure dans l'enchaînement Co-N≡C-Fe, aussi bien sur un plan expérimental (mise en œuvre de techniques d'analyse reposant sur l'utilisation du rayonnement synchrotron) que théorique (modélisation ab initio de type post-Hartree-Fock). Nous avons également étudié la nature de l'interaction, démontrée expérimentalement, entre les cations alcalins et le réseau bimétallique formé par les enchaînements Co-N≡C-Fe. Finalement, la pertinence du modèle à deux états, habituellement utilisé pour rendre compte des propriétés électroniques des systèmes commutables, est discutée, avec la mise en évidence de multistabilités au sein des ABP AxCoFe. Ce travail propose ainsi une étude la plus complète possible des phénomènes électroniques rencontrés dans ces systèmes.
APA, Harvard, Vancouver, ISO, and other styles
48

Lüthi, Bérengère. "Modélisation ab initio des interactions dislocation-soluté dans les métaux de transition cubiques centrés." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1166/document.

Full text
Abstract:
Afin de mieux appréhender la plasticité des alliages métalliques, il est important de pouvoir décrire à l'échelle atomique les interactions entre dislocations et solutés et d’en déduire l’effet sur la mobilité des dislocations. Au cours de cette thèse, nous nous sommes intéressés aux métaux de transition cubiques centrés (CC), et en particulier au fer, en présence de solutés interstitiels. A l’aide de calculs en Théorie de la Fonctionnelle de la Densité (DFT), la structure de cœur de la dislocation vis de vecteur de Burgers b=½&lt;111&gt; a été étudiée dans le fer en présence de solutés de bore, carbone, azote et oxygène et dans les métaux CC des groupes 5 (V, Nb et Ta) et 6 (Mo, W) en présence de carbone. Nous avons mis en évidence dans le fer et les métaux du groupe 6 une reconstruction du cœur de la dislocation en présence de solutés, associée à une très forte énergie d’attraction dislocation/soluté. Un comportement différent a été observé pour le groupe 5, la configuration la plus stable pour le carbone étant un site octaédrique proche de la dislocation, sans reconstruction de cœur. Cette tendance de groupe a été reliée à la structure des mono-carbures. Les conséquences des interactions fortement attractives dans le fer en présence de carbone ont ensuite été développées. D’une part la ségrégation d’équilibre du carbone proche du cœur de la dislocation a été étudiée à l’aide de modèles en champ moyen et de simulations Monte Carlo. D’autre part, la mobilité de la dislocation décorée a été étudiée en modélisant le mécanisme de double décrochement, en lien avec des observations expérimentales en microscopie électronique à transmission<br>In order to improve our understanding of alloy plasticity, it is important to describe at the atomic scale the dislocation-solute interactions and their effect on the dislocation mobility. This work focuses on the body-centered cubic (BCC) transition metals, in particular Fe, in presence of interstitial solute atoms. Using Density Functional Theory (DFT) calculations, the core structure of the screw dislocation of Burgers vector b=½&lt;111&gt; was investigated in iron in presence of boron, carbon, nitrogen and oxygen solute atoms, and in BCC metals from group 5 (V, Nb, Ta) and 6 (Mo, W) in presence of carbon solutes. A core reconstruction was evidenced in iron and group 6 metals, along with a strong attractive dislocation-solute interaction energy. A different behavior was observed in group 5 metals, for which the most stable configuration for the carbon atom is an octahedral site in the vicinity of the dislocation, without any core reconstruction. This group tendency was linked to the structure of mono-carbides. Consequences of the strongly attractive dislocation-solute interactions in Fe(C) were then investigated. First the equilibrium segregation close to the dislocation core was studied using a mean-field model and Monte Carlo simulations. Then, the mobility of the dislocation in presence of carbon atoms was investigated by modeling the double-kink mechanism with DFT, in relation with experimental data obtained with transmission electron microscopy
APA, Harvard, Vancouver, ISO, and other styles
49

Jamal, Al Dine Enaam. "Synthèse et caractérisation des nanoparticules intelligentes." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0054/document.

Full text
Abstract:
L’un des enjeux majeurs en nanomédecine est de développer des systèmes capables à la fois de permettre un diagnostic efficace et également de servir de plateforme thérapeutique pour combattre les infections et les neuro-dégénérescences. Dans cette optique, et afin d’améliorer la détection de tumeurs, des agents de contraste ont été développés dans le but d’augmenter le rapport signal sur bruit. Parmi ces agents, les nanoparticules (NPs) d’oxyde de fer superparamagnétiques (SPIOs) et les quantum dots (QDs) sont des candidats idéaux et ont reçu une grande attention depuis une vingtaine d’années. De surcroit, leurs propriétés spécifiques dues à leurs dimensions nanométriques et leurs formes permettent de moduler leur bio-distribution dans l’organisme. L’opportunité de revêtir ces NPs biocompatibles par des couches de polymères devraient permettre d’améliorer la stabilité de ces nanomatériaux dans l’organisme. Et par conséquent, favoriser leur biodistribution et également leur conférer de nouvelles applications en l’occurrence des applications biomédicales. Dans ce travail de thèse, nous avons développé de nouveaux systèmes thermo-répondant basés sur un cœur SPIOs ou QDs qui sont capables, à la fois, de transporter un principe actif anticancéreux, i.e. la doxorubicine (DOX) et de le relarguer dans le milieu physiologique à une température contrôlée. Deux familles de NPs ont été synthétisées. La première concerne des NPs de Fe3O4 SPIO qui ont été modifiées en surface par un copolymère thermorépondant biocompatible à base de 2-(2-methoxy) méthacrylate d’éthyle (MEO2MA), oligo (éthylène glycol) méthacrylate (OEGMA). La seconde famille, consiste en des NPs de ZnO recouverte du même copolymère. Pour la première fois, le copolymère de type P(MEO2MAX-OEGMA100-X) a été polymérisé par activateur-régénéré par transfert d’électron-polymérisation radicalaire par transfert d’atome (ARGET-ATRP). La polymérisation et copolymérisation ont été initiées à partir de la surface. Les NPs cœur/coquilles ont été caractérisées par microscopie électronique à transmission (TEM), analyse thermogravimétrique (TGA), etc. Nous avons montré que l’efficacité du procédé ARGET-ATRP pour modifier les surfaces des NPs de SiO2, Fe3O4 et de ZnO. L’influence de la configuration de la chaîne de copolymère et des propriétés interfaciales avec le solvant ou le milieu biologique en fonction de la température a été étudiée. Nous avons montré que les propriétés magnétiques des systèmes coeur/coquilles à base de Fe3O4 ne sont influencées que par la quantité de polymère greffée contrairement au QDs qui vient leur propriété optique réduire au-delà de la température de transition. Ce procédé simple et rapide que nous avons développé est efficace pour le greffage de nombreux copolymères à partir de surfaces de chimie différentes. Les expériences de largage et relarguage d’un molécule modèle telle que la DOX ont montré que ces nanosystèmes sont capables de relarguer la DOX à une température bien contrôlée, à la fois dans l’eau que dans des milieux complexes tels que les milieux biologique. De plus, les tests de cytocompatibilité ont montré que les NPs coeur/coquilles ne sont pas cytotoxiques en fonction de leur concentration dans le milieu biologique. A partir de nos résultats, il apparaît que ces nouveaux nanomatériaux pourront être envisagés comme une plateforme prometteuse pour le traitement du cancer<br>One of the major challenges in nanomedicine is to develop nanoparticulate systems able to serve as efficient diagnostic and/or therapeutic tools against sever diseases, such as infectious or neurodegenerative disorders. To enhance the detection and interpretation contrast agents were developed to increase the signal/noise ratio. Among them, Superparamagnetic Iron Oxide (SPIO) and Quantum Dots (QDs) nanoparticles (NPs) have received a great attention since their development as a liver contrasting agent 20 years ago for the SPIO. Furthermore, their properties, originating from the nanosized dimension and shape, allow different bio-distribution and opportunities beyond the conventional chemical imaging agents. The opportunity to coat those biocompatible NPs by a polymer shell that can ensure a better stability of the materials in the body, enhance their bio-distribution and give them new functionalities. It has appeared then that they are very challenging for medicinal applications. In this work, we have developed new responsive SPIO and QDs based NPs that are able to carry the anticancer drug doxorubicin (DOX) and release it in physiological media and at the physiological temperature. Two families of NPs were synthesized, the first one consist in superparamagnetic Fe3O4 NPs that were functionalized by a biocompatible responsive copolymer based on 2-(2-methoxy) ethyl methacrylate (MEO2MA), oligo (ethylene glycol) methacrylate (OEGMA). The second family consists in the ZnO NPs coated by the same copolymer. For the first time, P(MEO2MAX-OEGMA100-X) was grown by activator regenerated by electron transfer–atom radical polymerization (ARGET-ATRP) from the NPs surfaces by surface-initiated polymerization. The core/shell NPs were fully characterized by the combination of transmission electron microscopy (TEM), thermogravimetric analysis (TGA), and by the physical properties of the nanostructures studied. We demonstrate the efficiency of the ARGET-ATRP process to graft polymers and copolymers at the surface of Fe3O4 and ZnO NPs. The influence of the polymer chain configuration (which leads to the aggregation of the NPs above the collapse temperature of the copolymer (LCST)) was studied. We have demonstrated that the magnetic properties of the core/shell Fe3O4-based nanostructures were only influenced by the amount of the grafted polymer and no influence of the aggregation was evidenced. This simple and fast developed process is efficient for the grafting of various co-polymers from any surfaces and the derived nanostructured materials display the combination of the physical properties of the core and the macromolecular behavior of the shell. The drug release experiments confirmed that DOX was largely released above the co-polymer LCST. Moreover, the cytocompatibility test showed that those developed NPs do not display any cytotoxicity depending on their concentration in physiological media. From the results obtained, it can be concluded that the new nanomaterials developed can be considered for further use as multi-modal cancer therapy tools
APA, Harvard, Vancouver, ISO, and other styles
50

Chouha, Paul-Robert. "From Classical to Quantum Secret Sharing." Thèse, 2012. http://hdl.handle.net/1866/12389.

Full text
Abstract:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).<br>In this thesis, we will focus on a cryptographic primitive known as secret sharing. We will explore both the classical and quantum domains of such schemes culminating our study by presenting a new protocol for sharing a quantum secret using the minimal number of possible quantum shares i.e. one single quantum share per participant. We will start our study by presenting in the preliminary chapter, a brief mathematical survey of quantum information theory (QIT) which has for goal primarily to establish the notation used throughout the manuscript as well as presenting a précis of the mathematical properties of the Greenberger-Horne-Zeilinger (GHZ)-state, which is used thoroughly in cryptography and in communication games. But as we mentioned above, our main focus will be on cryptography. In chapter two, we will pay a close attention to classical and quantum error corrections codes (QECC) since they will become of extreme importance when we introduce quantum secret sharing schemes in the following chapter. In the first part of chapter three, we will focus on classical secret shearing, presenting a general framework for such a primitive all the while illustrating the abstract concepts with examples presented both for their historical and analytical relevance. This first part (chapters one and two) will pave the way for our exposition of the theory of Quantum Secret Sharing (QSS), which will be the focus of the second part of chapter three. We will present then the most general theorems and definitions known to date for the construction of such primitives putting emphasis on the special case of quantum threshold schemes. We will show how quantum error correction codes are related to QSS schemes and show how this relation leads to a very solid correspondence to the point that QECC’s are closer analogues to QSS schemes than are the classical secret sharing primitives. Finally, we will present one of the three results we have in A. Broadbent, P.-R. Chouha, A. Tapp (2009) in particular, a secure minimal quantum threshold protocol (the other two results deal with communication complexity and the classical simulation of the GHZ-state).
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography