To see the other types of publications on this topic, follow the link: Information binaire.

Dissertations / Theses on the topic 'Information binaire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Information binaire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Shams, Bilal. "Codes LDPC non-binaire de nouvelle generation." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00766409.

Full text
Abstract:
Dans cette thèse, nous présentons nos travaux dans le domaine des algorithmes de décodage des codes LDPC non-binaires généralisés. Les codes LDPC binaires ont été initialement proposés par Gallager en 1963, et après quelques avancées théoriques fondamentales, ils ont été proposés dans des standards tels que DVB-S2, WI-MAX, DSL, W-LAN etc. Plus tard, les codes LDPC non-binaires (NB-LDPC) ont été pro- posés dans la littérature, et ont montré une meilleure performance pour de petites tailles de code ou lorsqu'ils sont utilisés sur des canaux non-binaires. Cependant, les avan- tages de l'utilisation de codes NB-LDPC impliquent une augmentation importante de la complexité de décodage. Pour un code défini dans un corps de Galois GF (q), la complexité est d'ordre O (q2). De même, la mémoire requise pour le stockage des messages est d'ordre O (q). Ainsi, l'implémentation d'un décodeur LDPC défini sur un corps de Galois pour q > 64 devient impossible dans la pratique. L'objectif prin- cipal de cette thèse est de développer des algorithmes avec une bonne performance et complexité réduite de sorte qu'ils deviennent implémentables. Pour une performance de décodage optimisée, non seulement l'algorithme est important, mais également la structure du code joue un rôle clé. Avec cet objectif à l'esprit, une nouvelle famille de codes appelés " cluster-NB-LDPC codes " a été élaborée ainsi que des améliorations spécifiques du décodeur non-binaire pour ces codes. Le résultat principal est que nous avons pu proposer des décodeurs pour les codes cluster-NB-LDPC avec une complex- ité réduite par rapport aux décodeurs classiques pour les codes NB-LDPC définis sur les corps de Galois, sans aucune perte de performance dans la capacité de correction vi Résumé d'erreur. Dans la première partie de la thèse, nous avons modifié l'algorithme EMS pour les cluster-codes. La généralisation directe de l'algorithme EMS aux codes cluster-NB- LDPC n'est pas réaliste . Il y a une perte de performance et une augmentation de la complexité. Par conséquent, nous proposons quelques modifications dans la procé- dure, qui non seulement améliore considérablement les performances de décodage, mais diminue également la complexité. Au niveau des noeuds de parité, cet algo- rithme conserve les mêmes limites sur le nombre d'opérations que l'algorithme EMS pour GF (q)-codes, O (nmlognm) avec nm << q. Nous proposons ensuite une autre méthode, basée sur la diversité des codes cluster, afin d'améliorer les performances de l'algorithme EMS pour les codes cluster-LDPC. Il contribue également à réduire la complexité globale du décodeur. Finalement, nous comparons les performances de décodage en utilisant cette méthode et analysons l'effet sur la complexité de décodage. Dans la dernière partie du chapitre, nous proposons une nouvelle direction pour le décodage des codes LDPC. Elle est basée sur la création des listes des mots de code qui correspondent à des noeuds de parité. Les listes sont construite de manière récur- sive dans une structure en arbre, ce qui en fait un bon candidat pour l'implémentation matérielle. Il s'agit d'une méthode nouvelle et doit encore être améliorée mais à pre- miére vue nous avons obtenu de bons résultats avec un nombre réduit d'operations.
APA, Harvard, Vancouver, ISO, and other styles
2

Katz, Gil. "Détection binaire distribuée sous contraintes de communication." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC001/document.

Full text
Abstract:
Ces dernières années, l'intérêt scientifique porté aux différents aspects des systèmes autonomes est en pleine croissance. Des voitures autonomes jusqu'à l'Internet des objets, il est clair que la capacité de systèmes à prendre des décision de manière autonome devient cruciale. De plus, ces systèmes opéreront avec des ressources limitées. Dans cette thèse, ces systèmes sont étudiés sous l'aspect de la théorie de l'information, dans l'espoir qu'une compréhension fondamentale de leurs limites et de leurs utilisations pourrait aider leur conception par les futures ingénieurs.Dans ce travail, divers problèmes de décision binaire distribuée et collaborative sont considérés. Deux participants doivent "déclarer" la mesure de probabilité de deux variables aléatoires, distribuées conjointement par un processus sans mémoire et désignées par $vct{X}^n=(X_1,dots,X_n)$ et $vct{Y}^n=(Y_1,dots,Y_n)$. Cette décision et prise entre deux mesures de probabilité possibles sur un alphabet fini, désignés $P_{XY}$ et $P_{bar{X}bar{Y}}$. Les prélèvements marginaux des variables aléatoires, $vct{X}^n$ et $vct{Y}^n$ sont supposés à être disponibles aux différents sites .Il est permis aux participants d'échanger des quantités limitées d'information sur un canal parfait avec un contraint de débit maximal. Durant cette thèse, la nature de cette communication varie. La communication unidirectionnelle est considérée d'abord, suivie par la considération de communication bidirectionnelle, qui permet des échanges interactifs entre les participants
In recents years, interest has been growing in research of different autonomous systems. From the self-dring car to the Internet of Things (IoT), it is clear that the ability of automated systems to make autonomous decisions in a timely manner is crucial in the 21st century. These systems will often operate under stricts constains over their resources. In this thesis, an information-theoric approach is taken to this problem, in hope that a fundamental understanding of the limitations and perspectives of such systems can help future engineers in designing them.Throughout this thesis, collaborative distributed binary decision problems are considered. Two statisticians are required to declare the correct probability measure of two jointly distributed memoryless process, denoted by $vct{X}^n=(X_1,dots,X_n)$ and $vct{Y}^n=(Y_1,dots,Y_n)$, out of two possible probability measures on finite alphabets, namely $P_{XY}$ and $P_{bar{X}bar{Y}}$. The marginal samples given by $vct{X}^n$ and $vct{Y}^n$ are assumed to be available at different locations.The statisticians are allowed to exchange limited amounts of data over a perfect channel with a maximum-rate constraint. Throughout the thesis, the nature of communication varies. First, only unidirectional communication is allowed. Using its own observations, the receiver of this communication is required to first identify the legitimacy of its sender by declaring the joint distribution of the process, and then depending on such authentication it generates an adequate reconstruction of the observations satisfying an average per-letter distortion. Bidirectional communication is subsequently considered, in a scenario that allows interactive communication between the participants
APA, Harvard, Vancouver, ISO, and other styles
3

Crochet, Philippe. "Une approche lagrangienne pour caractériser la variabilité spatiale des champs de pluie : application à l'estimation des lames d'eau moyennes au Sahel, à partir d'une information binaire." Université Joseph Fourier (Grenoble ; 1971-2015), 1995. http://www.theses.fr/1995GRE10028.

Full text
Abstract:
Cette etude propose une analyse geostatistique de la variabilite spatiale des champs de precipitation intermittents en region sahelienne. Les donnees proviennent du reseau dense de pluviographes de l'experience epsat-niger. Deux saisons des pluies ont ete etudiees au pas de temps de l'heure. Une premiere analyse fondee sur la distinction des notions d'intermittence spatiale et de variabilite en soi, met en evidence la presence d'une organisation spatiale systematique de l'intensite de precipitation a l'interieur des surfaces pluvieuses. Une methodologie est ensuite developpee pour caracteriser de maniere simple la presence de cette derive. Elle consiste a rattacher les caracteristiques statistiques de l'intensite de pluie a la geometrie des surfaces pluvieuses, en definissant un mode de reperage capable d'evoluer avec le systeme precipitant. On montrera par exemple que la moyenne de l'intensite de pluie croit du bord vers l'interieur des surfaces pluvieuses. Cette information est ensuite utilisee pour estimer la lame d'eau moyenne precipitee sur un domaine, a partir de la seule connaissance de la geometrie des zones pluvieuses au dessus d'un seuil d'intensite donne. Les performances de cette methode (la methode de la derive) sont comparees a celles de la methode des seuils. Les resultats obtenus montrent sa superiorite dans la plupart des cas etudies. Si un dispositif satellitaire est capable de fournir l'information necessaire pour localiser les zones pluvieuses au dessus d'un ou plusieurs seuils, cette methode est prometteuse pour caracteriser la repartition spatiale de l'intensite de pluie, a des echelles temporelles reduites, sur des zones de grande extension spatiale, ou la mesure in-situ fait defaut
APA, Harvard, Vancouver, ISO, and other styles
4

Becker, Jean-Marie. "Contribution à l'analyse d'images par des marches quadrantales." Saint-Etienne, 1991. http://www.theses.fr/1991STET4011.

Full text
Abstract:
Toute séquence aléatoire d'informations binaires peut être représentée par une marche aléatoire, dite quadrantale, située dans le premier quadrant du plan. Une telle marche peut être interprétée comme primitive de la séquence initiale. Le couplage des points de vue probabiliste et fonctionnel donne naissance à une famille de modèles. On montre que ceux-ci possèdent une bonne assise théorique et qu'ils sont pertinents pour l'analyse d'image notamment, dans le cadre d'un balayage ligne par ligne pour rendre compte de la dualité entre finesse de trame et finesse d'échelle de niveaux de gris, ainsi que du passage du discret au continu. De plus, on met en évidence une utilisation de ces marches comme sondes pour l'appréciation de certaines distances. Par ailleurs, deux autres aspects sont abordés, liés également à des questions de métriques sur trame carrée; d'une part une amélioration du calcul de la distance par la méthode de Borgefors, d'autre part un modèle de représentation de courbure de courbes planes discrétisées
APA, Harvard, Vancouver, ISO, and other styles
5

Hernandez, Sierra Gabriel. "Métodos de representación y verificación del locutor con independencia del texto." Thesis, Avignon, 2014. http://www.theses.fr/2014AVIG0203/document.

Full text
Abstract:
La reconnaissance automatique du locuteur indépendante du texte est une méthode récente dans le domaine des systèmes biométriques. Le développement de la reconnaissance du locuteur se reflète tout autant dans la participation croissante aux compétitions internationales et dans les progrès en termes de performance relevés dans ces campagnes. Cependant la précision des méthodes reste limitée par la quantité d'information discriminante du locuteur présente dans les représentations informatiques des énoncés vocaux. Cette thèse présente une étude sur ces représentations. Elle identifie deux faiblesses principales. Tout d’abord, les représentations usuelles ignorent les paramètres temporels de la voix pourtant connus pour leur pouvoir discriminant. Par ailleurs, ces représentations reposent sur le paradigme de l’apprentissage statistique et diminuent l’importance d’événements rares dans une population de locuteurs, mais fréquents dans un locuteur donné.Pour répondre à ces verrous, cette thèse propose une nouvelle représentation des énoncés. Celle-ci projette chaque vecteur acoustique dans un large espace binaire intrinsèquement discriminant du locuteur. Une mesure de similitude associée à une représentation globale (vecteurs cumulatifs) est également proposée. L’approche proposée permet ainsi à la fois de représenter des événements rares mais pertinents et de travailler sur des informations temporelles. Cette approche permet de tirer parti des solutions de compensation de la variabilité « session », qui provient de l’ensemble des facteurs indésirables, exploitées dans les approches de type « iVector ». Dans ce domaine, des améliorations aux algorithmes de l’état de l’art ont été proposées.Une solution originale permettant d’exploiter l’information temporelle à l’intérieur de cette représentation binaire a été proposée. La complémentarité des sources d’information a été attestée par un gain en performance relevé grâce à une fusion linéaire des deux types d’information, indépendant et dépendant de la séquence temporelle
Text-independent automatic speaker recognition is a recent method in biometric area. Its increasing interest is reflected both in the increasing participation in international competitions and in the performance progresses. Moreover, the accuracy of the methods is still limited by the quantity of speaker discriminant information contained in the representations of speech utterances. This thesis presents a study on speech representation for speaker recognition systems. It shows firstly two main weaknesses. First, it fails to take into account the temporal behavior of the voice, which is known to contain speaker discriminant information. Secondly, speech events rare in a large population of speakers although very present for a given speaker are hardly taken into account by these approaches, which is contradictory when the goal is to discriminate among speakers.In order to overpass these limitations, we propose in this thesis a new speech representation for speaker recognition. This method represents each acoustic vector in a a binary space which is intrinsically speaker discriminant. A similarity measure associated with a global representation (cumulative vectors) is also proposed. This new speech utterance representation is able to represent infrequent but discriminant events and to work on temporal information. It allows also to take advantage of existing « session » variability compensation approaches (« session » variability represents all the negative variability factors). In this area, we proposed also several improvements to the usual session compensation algorithms. An original solution to deal with the temporal information inside the binary speech representation was also proposed. Thanks to a linear fusion approach between the two sources of information, we demonstrated the complementary nature of the temporal information versus the classical time independent representations
El reconocimiento automático del locutor independiente del texto, es un método dereciente incorporación en los sistemas biométricos. El desarrollo y auge del mismo serefleja en las competencias internacionales, pero aun la eficacia de los métodos de reconocimientose encuentra afectada por la cantidad de información discriminatoria dellocutor que esta presente en las representaciones actuales de las expresiones de voz.En esta tesis se realizó un estudio donde se identificaron dos principales debilidadespresentes en las representaciones actuales del locutor. En primer lugar, no se tiene encuenta el comportamiento temporal de la voz, siendo este un rasgo discriminatorio dellocutor y en segundo lugar los eventos pocos frecuentes dentro de una población delocutores pero frecuentes en un locutor dado, apenas son tenidos en cuenta por estosenfoques, lo cual es contradictorio cuando el objetivo es discriminar los locutores. Motivadopor la solución de estos problemas, se confirmó la redundancia de informaciónexistente en las representaciones actuales y la necesidad de emplear nuevas representacionesde las expresiones de voz. Se propuso un nuevo enfoque con el desarrollo de unmétodo para la obtención de un modelo generador capaz de transformar la representación actual del espacio acústico a una representación en un espacio binario, dondese propuso una medida de similitud asociada con una representación global (vectoracumulativo) que contiene tanto los eventos frecuentes como los pocos frecuentes enuna expresión de voz. Para la compensación de la variabilidad de sesión se incorporóen la matriz de dispersión intra-clase, la información común de la población de locutores,lo que implicó la modificación de tres algoritmos de la literatura que mejoraronsu desempeño respecto a la eficacia en el reconocimiento del locutor, tanto utilizandoel nuevo enfoque propuesto como el enfoque actual de referencia. La información temporalexistente en las expresiones de voz fue capturada e incorporada en una nuevarepresentación, mejorando aun más la eficacia del enfoque propuesto. Finalmente sepropuso y evaluó una fusión lineal entre los dos enfoques que demostró la informacióncomplementaria existente entre ellos, obteniéndose los mejores resultados de eficaciaen el reconocimiento del locutor
APA, Harvard, Vancouver, ISO, and other styles
6

Minard, Anne-Lyse. "Extraction de relations en domaine de spécialité." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00777749.

Full text
Abstract:
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs.
APA, Harvard, Vancouver, ISO, and other styles
7

Chenon, Christophe. "Vers une meilleure utilisabilité des mémoires de traduction, fondée sur un alignement sous-phrastique." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012126.

Full text
Abstract:
La traduction assistée par ordinateur a connu un grand essor dans les années 1990 avec l'arrivée des environnements à mémoires de traduction. Ces systèmes exploitent la redondance des textes techniques produits et traduits dans l'industrie, en proposant aux traducteurs de réutiliser des traductions archivées et d'accroître ainsi leur productivité. Ces mémoires utilisent, sans analyse, des segments de textes (le plus souvent des phrases entières) dont le découpage et l'alignement sont garantis par le traducteur.

Pourtant ces mémoires recèlent des gisements d'information importants au niveau sous-phrastique dont les utilisateurs ne peuvent pas bénéficier. Le formalisme TransTree permet de représenter des correspondances sous-segmentales enchassées bilingues. Ces correspondances complexes (les amphigrammes) forment une structure arborescente exprimable en XML. Une transformation de surface conduit à une visualisation dynamique mettant en évidence les différents niveaux de correspondance entre sous-segments.

TransTree s'accompagne d'une méthode générale de construction par voie statistique, fondée sur les arbres binaires de sécabilité. Cette méthode permet d'établir des amphigrammes à partir des correspondances entre mots typographiques. Il est possible d'abstraire des patrons de traduction (amphigrammes génériques) par classification des exemples rencontrés dans le corpus.

Quelques expérimentations ont été effectuées pour valider le pouvoir d'expression du formalisme, explorer différentes options de construction et esquisser un algorithme de reconstitution d'un segment cible à partir d'un segment source inconnu avec la connaissance extraite des mémoires de traduction.
APA, Harvard, Vancouver, ISO, and other styles
8

Kelan, Elisabeth Kristina. "Binary logic? : doing gender in information communication technology work." Thesis, London School of Economics and Political Science (University of London), 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.429370.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Sassatelli, Lucile. "Codes LDPC multi-binaires hybrides et méthodes de décodage itératif." Phd thesis, Université de Cergy Pontoise, 2008. http://tel.archives-ouvertes.fr/tel-00819413.

Full text
Abstract:
Cette thèse porte sur l'analyse et le design de codes de canal définis par des graphes creux. Le but est de construire des codes ayant de très bonnes performances sur de larges plages de rapports signal à bruit lorsqu'ils sont décodés itérativement. Dans la première partie est introduite une nouvelle classe de codes LDPC, nommés code LDPC hybrides. L'analyse de cette classe pour des canaux symétriques sans mé- moire est réalisée, conduisant à l'optimisation des paramètres, pour le canal gaussien à entrée binaire. Les codes LDPC hybrides résultants ont non seulement de bonnes proprié- tés de convergence, mais également un plancher d'erreur très bas pour des longueurs de mot de code inférieures à trois mille bits, concurrençant ainsi les codes LDPC multi-edge. Les codes LDPC hybrides permettent donc de réaliser un compromis intéressant entre ré- gion de convergence et plancher d'erreur avec des techniques de codage non-binaires. La seconde partie de la thèse a été consacrée à étudier quel pourrait être l'apport de méthodes d'apprentissage artificiel pour le design de bons codes et de bons décodeurs itératifs, pour des petites tailles de mot de code. Nous avons d'abord cherché comment construire un code en enlevant des branches du graphe de Tanner d'un code mère, selon un algorithme d'apprentissage, dans le but d'optimiser la distance minimale. Nous nous sommes ensuite penchés sur le design d'un décodeur itératif par apprentissage artificiel, dans l'optique d'avoir de meilleurs résultats qu'avec le décodeur BP, qui devient sous- optimal dès qu'il y a des cycles dans le graphe du code. Dans la troisième partie de la thèse, nous nous sommes intéressés au décodage quan- tifié dans le même but que précédemment : trouver des règles de décodage capables de décoder des configurations d'erreur difficiles. Nous avons proposé une classe de déco- deurs utilisant deux bits de quantification pour les messages du décodeur. Nous avons prouvé des conditions suffisantes pour qu'un code LDPC, avec un poids de colonnes égal à quatre, et dont le plus petit cycle du graphe est de taille au moins six, corrige n'importe quel triplet d'erreurs. Ces conditions montrent que décoder avec cette règle à deux bits permet d'assurer une capacité de correction de trois erreurs pour des codes de rendements plus élevés qu'avec une règle de décodage à un bit.
APA, Harvard, Vancouver, ISO, and other styles
10

Väyrynen, A. (Antti). "Finding third-party components with binary analysis." Master's thesis, University of Oulu, 2015. http://urn.fi/URN:NBN:fi:oulu-201504161389.

Full text
Abstract:
The increased usage of open-source software (OSS) libraries as building blocks in the software industry has introduced numerous problems and vulnerabilities into many popular software suites. As more libraries are used, the risk of the whole software being exposed to the vulnerabilities inherent in these third-party components increases. Vulnerability management is the process of mitigating the impact of these vulnerabilities in software development. Another matter concerning OSS is license management. Violating OSS licenses can lead to legal issues and possibly harm a business. A few commercial tools can be used to manage vulnerabilities and licenses. The implementation introduced in this thesis is developed to improve Codenomicon AppCheck, which is one of these commercial tools. This thesis introduces a method for detecting software libraries in binary code. Each library is given a unique set of signatures. A signature is a sequence of bytes extracted from the read-only data section of the library. Two new methods are demonstrated for the signature extraction. The signatures are detected from the input binary data using the Aho-Corasick string matching algorithm. The algorithm allows the detecting to be done with a single pass over the input data. The found signatures are evaluated and used to decide which libraries are included in the input data. The implementation was tested using 14 OSS libraries and 8 OSS applications. Each of the libraries was included at least in one of the applications. For each application the expected libraries, which were supposed to be found, were determined by examining their source code. The found libraries were compared to ones expected to be found, and the accuracy was defined using F measure. The results showed that the new signature extraction methods were valid, and the implementation could detect OSS libraries in binary data. The new signature extraction methods were also able to extend the coverage of Codenomicon AppCheck.
APA, Harvard, Vancouver, ISO, and other styles
11

Faris, Peter D. "Risk adjustment with binary outcomes when covariate information is incomplete." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape2/PQDD_0021/NQ49492.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Morrison, Jeffrey Glenn. "The effects of hue and contrast on binary classification." Thesis, Georgia Institute of Technology, 1987. http://hdl.handle.net/1853/28758.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Chau, Ka-ki, and 周嘉琪. "Informative drop-out models for longitudinal binary data." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2003. http://hub.hku.hk/bib/B2962714X.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Zaumsegel, Daniel [Verfasser]. "Binary polymorphisms as ancestry informative markers / Daniel Zaumsegel." Köln : Deutsche Zentralbibliothek für Medizin, 2013. http://d-nb.info/1046231766/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Möller, Nils. "Binary Large Objects i MongoDB och MariaDB : En komparativ studie över komplexitet och prestanda." Thesis, Karlstads universitet, Handelshögskolan (from 2013), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-78472.

Full text
Abstract:
Syftet med denna uppsats var att jämföra två olika databashanteringssystem, MongoDB samt MariaDB, utifrån specifika krav från en uppdragsgivare gällande prestanda samt komplexitet. Då MariaDB är ett SQL-databashanteringssystem och MongoDB ett NoSQLdatabashanteringssystem som bygger på olika databasmodeller behandlas data på olika sätt, vilket ligger som grund till jämförelsen mellan de olika databashanteringssystemen. Uppsatsen fokuserar på att utifrån fyra olika tester, två prestandatestet och två tester som jämför komplexiteten, kunna jämföra databashanteringssystemen MariaDB och MongoDB. Dessa databashanteringssystem ställdes emot de angivna kraven från uppdragsgivaren för att se vilket av dem som är bäst lämpat. Två olika applikationer utvecklades med hjälp av C# och användes under testerna för att utföra testerna. Efter att testerna utförts rekommenderades MongoDB till uppdragsgivaren på grund av den prestandafördel som testerna visade på i långsiktig användning av systemet. Även komplexiteten för MongoDB visade sig vara mindre vilket stärker rekommendationen ytterligare.
APA, Harvard, Vancouver, ISO, and other styles
16

Gorgolione, Matteo. "Analyse et construction de codes LDPC non-binaires pour des canaux à évanouissement." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00819415.

Full text
Abstract:
Au cours des 15 dernières années, des progrès spectaculaires dans l'analyse et la conception des codes définis par des graphes bipartites et décodables par des algorithmes itératifs ont permis le développement de systèmes de correction d'erreurs, avec des performances de plus en plus proches la limite théorique de Shannon. Dans ce contexte, un rôle déterminant a été joué par la famille des codes à matrice de parité creuse, appelés codes LDPC (pour " Low-Density Parity-Check ", en anglais), introduit par Gallager au début des années 60 et décrits plus tard en termes de graphes bipartites. Négligés pendant de longues années, ces codes ont été redécouverts à la fin des années 90, après que la puissance du décodage itératif a été mise en évidence grâce à l'invention des Turbo-codes. Ce n'est qu'au début des années 2000 que les techniques nécessaires à l'analyse et l'optimisation des codes LDPC ont été développées, techniques qui ont permis ensuite la construction des codes avec des performances asymptotiques proches de la limite de Shannon. Cette remarquable avancée a motivé l'intérêt croissant de la communauté scientifique et soutenu le transfert rapide de cette technologie vers le secteur industriel. Plus récemment, un intérêt tout particulier a été porté aux codes LDPC définis sur des alphabets non-binaires, grâce notamment à leur meilleure capacité de correction en " longueur finie ". Bien que Gallager ait déjà proposé l'utilisation des alphabets non-binaires, en utilisant l'arithmétique modulaire, les codes LDPC non-binaires définis sur les corps finis n'ont étés étudiés qu'à partir de la fin des années 90. Il a été montré que ces codes offrent de meilleures performances que leurs équivalents binaires lorsque le bloc codé est de longueur faible à modérée, ou lorsque les symboles transmis sur le canal sont eux-mêmes des symboles non- binaires, comme par exemple dans le cas des modulations d'ordre supérieur ou des canaux à antennes multiples. Cependant, ce gain en performance implique un coût non négligeable en termes de complexité de décodage, qui peut entraver l'utilisation des codes LDPC non binaires dans des systèmes réels, surtout lorsque le prix à payer en complexité est plus important que le gain en performance. Cette thèse traite de l'analyse et de la conception des codes LDPC non binaires pour des canaux à évanouissements. L'objectif principal de la thèse est de démontrer que, outre le gain en performance en termes de capacité de correction, l'emploi des codes LDPC non binaires peut apporter des bénéfices supplémentaires, qui peuvent compenser l'augmentation de la complexité du décodeur. La " flexibilité " et la " diversité " représentent les deux bénéfices qui seront démontrées dans cette thèse. La " flexibilité " est la capacité d'un système de codage de pouvoir s'adapter à des débits (rendements) variables tout en utilisant le même encodeur et le même décodeur. La " diversité " se rapporte à sa capacité d'exploiter pleinement l'hétérogénéité du canal de communication. La première contribution de cette thèse consiste à développer une méthode d'approximation de l'évolution de densité des codes LDPC non-binaires, basée sur la simulation Monte-Carlo d'un code " infini ". Nous montrons que la méthode proposée fournit des estimations très fines des performances asymptotiques des codes LDPC non-binaires et rend possible l'optimisation de ces codes pour une large gamme d'applications et de modèles de canaux. La deuxième contribution de la thèse porte sur l'analyse et la conception de système de codage flexible, utilisant des techniques de poinçonnage. Nous montrons que les codes LDPC non binaires sont plus robustes au poinçonnage que les codes binaires, grâce au fait que les symboles non-binaires peuvent être partialement poinçonnés. Pour les codes réguliers, nous montrons que le poinçonnage des codes non-binaires obéit à des règles différentes, selon que l'on poinçonne des symboles de degré 2 ou des symboles de degré plus élevé. Pour les codes irréguliers, nous proposons une procédure d'optimisation de la " distribution de poinçonnage ", qui spécifie la fraction de bits poinçonnés par symbole non-binaire, en fonction du degré du symbole. Nous présentons ensuite des distributions de poinçonnage optimisées pour les codes LDPC non binaires, avec des performances à seulement 0,2 - 0,5 dB de la capacité, pour des rendements poinçonnés variant de 0,5 à 0,9. La troisième contribution de la thèse concerne les codes LDPC non binaires transmis sur un canal de Rayleigh à évanouissements rapides, pour lequel chaque symbole modulé est affecté par un coefficient d'évanouissement différent. Dans le cas d'une correspondance biunivoque entre les symboles codés et les symboles modulés (c.-à-d. lorsque le code est définit sur un corps fini de même cardinalité que la constellation utilisée), certains symboles codés peuvent être complètement noyés dans le bruit, dû aux évanouissements profonds du canal. Afin d'éviter ce phénomène, nous utilisons un module d'entrelacement au niveau bit, placé entre l'encodeur et le modulateur. Au récepteur, le module de désentrelacement apporte de la diversité binaire en entrée du décodeur, en atténuant les effets des différents coefficients de fading. Nous proposons un algorithme d'entrelacement optimisé, inspirée de l'algorithme " Progressive Edge-Growth " (PEG). Ainsi, le graphe bipartite du code est élargi par un nouvel ensemble de nœuds représentant les symboles modulés, et l'algorithme proposé établit des connections entre les nœuds représentant les symboles modulés et ceux représentant les symboles codés, de manière à obtenir un graphe élargi de maille maximale. Nous montrons que l'entrelaceur optimisé permet d'obtenir un gain de performance par rapport à un entrelaceur aléatoire, aussi bien en termes de capacité de correction que de détection d'erreurs. Enfin, la quatrième contribution de la thèse consiste en un schéma de codage flexible, permettant d'atteindre la diversité maximale d'un canal à évanouissements par blocs. La particularité de notre approche est d'utiliser des codes Root-LDPC non binaires couplés avec des codes multiplicatifs non binaires, de manière à ce que le rendement de codage puisse facilement s'adapter au nombre de blocs d'évanouissement. Au niveau du récepteur, une simple technique de combinaison de diversité est utilisée en entrée du décodeur. Comme conséquence, la complexité du décodage reste inchangée quel que soit le nombre de blocs d'évanouissement et le rendement du code utilisé, tandis que la technique proposée apporte un réel bénéfice en termes de capacité de correction.
APA, Harvard, Vancouver, ISO, and other styles
17

Benachour, Phillip. "Trellis decoding techniques for the multiple access binary adder channel." Thesis, Lancaster University, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.314240.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Wyrwas, Richard R. "Coding for binary image transmission over land mobile radio channels." Thesis, University of Manchester, 1988. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.328313.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Kaipala, J. (Jukka). "Automatic segmentation of bone tissue from computed tomography using a volumetric local binary patterns based method." Master's thesis, University of Oulu, 2018. http://urn.fi/URN:NBN:fi:oulu-201802101221.

Full text
Abstract:
Segmentation of scanned tissue volumes of three-dimensional (3D) computed tomography (CT) images often involves—at least partially—some manual process, as there is no standardized automatic method. There is a need to develop fully automatic approaches, not only to improve the objectivity of the task, but also to increase the overall speed of the segmentation process. Here we extend a 3D local binary patterns (LBP) based trabecular bone segmentation method with adaptive local thresholding and additional segmentation parameters to make it more robust yet still perform adequately when compared to traditional user-assisted segmentation. We estimate parameters for the new automated adaptive multiscale LBP-based 3D segmentation method (AMLM) in our experimental setting, and have two micro-CT (μCT) scanned bovine trabecular bone tissue volumes segmented by both the AMLM and two experienced users. Comparison of the results shows superior performance of the AMLM suggesting the strong potential for this solution to perform automatic bone segmentation
Skannattujen kudosrakenteiden segmentointi kolmiulotteisista (3D) tomografiakuvista tehdään usein ainakin osittain manuaalisesti, sillä standardoitua automaattista menetelmää ei ole. Täysin automatisoitujen lähestymistapojen kehitys on tarpeen, sillä se parantaisi sekä segmentoinnin objektiivisuutta että sen kokonaisnopeutta. Tässä työssä laajennamme automatisoitua local binary patterns (LBP) -perustaista trabekulaarisen luun 3D-segmentointimenetelmää adaptiivisella paikallisella kynnystyksellä ja segmentoinnin lisäparametreilla tavoitteenamme vahvistaa menetelmää mutta säilyttää silti riittävä suorituskyky verrattuna perinteiseen käyttäjäavusteiseen segmentointiin. Arvioimme koejärjestelyssämme parametrit uudelle automatisoidulle adaptiiviselle moniasteikkoiselle LBP-pohjaiselle 3Dsegmentointimenetelmälle (AMLM), ja teetämme sekä AMLM:n avulla että kahden kokeneen käyttäjän toimesta binäärisegmentoinnit kahdelle mikrotietokonetomografialla (μTT) tuotetulle kuvalle naudan trabekulaarisesta luukudoksesta. Tulosten vertailu osoittaa AMLM:n suorituskyvyltään selkeästi paremmaksi, mikä antaa vahvan viitteen tämän menetelmän soveltuvuudesta automatisoituun luusegmentointiin
APA, Harvard, Vancouver, ISO, and other styles
20

Yakdan, Khaled [Verfasser]. "A Human-Centric Approach For Binary Code Decompilation / Khaled Yakdan." Bonn : Universitäts- und Landesbibliothek Bonn, 2018. http://d-nb.info/1160594139/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Jiang, Tao. "Information Approach for Change Point Detection of Weibull Models with Applications." Bowling Green State University / OhioLINK, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=bgsu1434382384.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Kizhakkumkara, Muhamad Raees. "Polar Codes for secure binary Wyner-Ziv source coding." Thesis, KTH, Teknisk informationsvetenskap, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-215091.

Full text
Abstract:
Source coding, originally envisaged by Claude Shannon in 1948 in his landmarkpaper "A Mathematical Theory of Communication" remained impractical forthe most part of the 20th century. However several advances were made incoding theory of which the latest-Polar Codes introduced by Erdal Arikan in2008 is highly promising. Polar Codes have modest encoding and decoding complexities,while providing a construction that directly leads to the fundamentalbounds obtained by Shannon. We are progressing further into the InformationAge, where high resolution videos are streamed over the Internet and variousdevices gather massive amounts of data while connected to each other in communicationnetworks. Hence the practical implication of an ecient and securesource coding scheme is signicant. In this thesis, we implement a source codingproblem called the Common helper in a Wyner-Ziv Network using polarcodes. Additionally the above construction leads to the lossy compression of aBernoulli Source and might provide an insight on how to develop ecient lossysource compression over a more general network.Source coding, originally envisaged by Claude Shannon in 1948 in his landmarkpaper "A Mathematical Theory of Communication" remained impractical forthe most part of the 20th century. However several advances were made incoding theory of which the latest-Polar Codes introduced by Erdal Arikan in2008 is highly promising. Polar Codes have modest encoding and decoding complexities,while providing a construction that directly leads to the fundamentalbounds obtained by Shannon. We are progressing further into the InformationAge, where high resolution videos are streamed over the Internet and variousdevices gather massive amounts of data while connected to each other in communicationnetworks. Hence the practical implication of an ecient and securesource coding scheme is signicant. In this thesis, we implement a source codingproblem called the Common helper in a Wyner-Ziv Network using polarcodes. Additionally the above construction leads to the lossy compression of aBernoulli Source and might provide an insight on how to develop ecient lossysource compression over a more general network.
Källkodning, som ursprungligen planerades av Claude Shannon är 1948 i sittlandmärkes paper "A Mathematical Theory of Communication" var opraktiskför det mesta av 1900 talet. Men era framsteg gjordes i kodningsteoridär de senaste Polarkoderna infördes av Erdal Arikan 2008 är mycket lovande.Polära koder har blygsamma kodnings- och avkodningskomplexiteter,samtidigt som de ger en konstruktion som direkt leder till de grundläggandegränserna som erhållits av Shannon. Vi går vidare in i informationsåldern,där videoklipp med hög upplösning streamas över Internet och olika enhetersamlar massiva datamängder medan de är anslutna till varandrar i kommunikationsnät. Därför är den praktiska implikationen av ett effektivt och säkertkällkodningssystem väsentligt. I den här avhandlingen implementerar vi ettkällkodproblem som kallas den gemensamma hjälpen i ett Wyner-Ziv-nätverkmed polarkoder. Dessutom leder ovanstående konstruktion till en förlustfullkomprimering av en Bernoulli-källa och kan ge en inblick i hur man utvecklareffektiv förlustkällkomprimering över ett mer generellt nätverk.
APA, Harvard, Vancouver, ISO, and other styles
23

Kozma, László [Verfasser], and Raimund [Akademischer Betreuer] Seidel. "Binary search trees, rectangles and patterns / László Kozma ; Betreuer: Raimund Seidel." Saarbrücken : Saarländische Universitäts- und Landesbibliothek, 2016. http://d-nb.info/1114735019/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Ekberg, Joakim. "Geometries of Binary Constant Weight Codes." Thesis, Karlstad University, Division for Engineering Sciences, Physics and Mathematics, 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-88.

Full text
Abstract:

This thesis shows how certain classes of binary constant weight codes can be represented geometrically using linear structures in Euclidean space. The geometric treatment is concerned mostly with codes with minimum distance 2(w - 1), that is, where any two codewords coincide in at most one entry; an algebraic generalization of parts of the theory also applies to some codes without this property. The presented theorems lead to a total of 18 improvements of the table of lower bounds on A(n,d,w) maintained by E. M. Rains and N. J. A. Sloane. Additional improvements have been made by finding new lexicographic codes.

APA, Harvard, Vancouver, ISO, and other styles
25

Thangaraj, Andrew. "Iterative coding methods for the binary symmetric channel and magnetic recording channel." Diss., Georgia Institute of Technology, 2003. http://hdl.handle.net/1853/13387.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Swaminathan, Jayashree. "Decoding algorithms for binary BCH and Reed-Solomon codes." Ohio : Ohio University, 1995. http://www.ohiolink.edu/etd/view.cgi?ohiou1178905628.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Vizenor, Katie Virginia. "Binary Lives| Digital Citizenship and Disability Participation in a User Content Created Virtual World." Thesis, State University of New York at Buffalo, 2014. http://pqdtopen.proquest.com/#viewpdf?dispub=3613110.

Full text
Abstract:

Digital Citizenship is a concept typically used in discussions of how technology impacts our relationships with others and our physical world communities. It is also used to describe ways that we can leverage our technology use and skill to make our communities and nations better and stronger. Educators are now teaching "good digital citizenship" as part of a larger civics curriculum.

But, there is a second, emerging concept that I refer to as platform specific digital citizenship. I define this platform specific citizenship as the deep and abiding commitment and sense of responsibility that people develop in relation to a particular technology, such as software or technology brand. It may also refer to the ideas that people express in regard to how technology should ideally be used and what rights and responsibilities it requires of its adherents.

Massively Multiplayer Online Worlds (MMOWs) are one place researchers are finding this deep, platform specific digital citizenship emerging. These are persistent digital universes where people from all over the world develop online personas, leadership structures, discussion forums, and business and non-profit entities. The ability and extent to which this online organization is possible is largely due to the underlying structure, rules and allowances of the world of which people choose to be a part.

One online world, Second Life, has a large, active and vocal disabled population. They have committed to this environment because of the unique opportunities and freedoms that it provides. As a user content created environment, residents, as Second Life participants are referred to, are given an unprecedented amount of freedom to create the kind of experience they want. This may involve developing relationships and projects with other disabled residents. It can also involve exploring other aspects of themselves and their interests that are often neglected in their real lives due to social exclusion, and/or lack of financial and physical access.

Most of the research and popular media examinations of disability in Second Life centers on participation in disability specific communities or the benefits of identity exploration through avatar design. But, the reasons disabled people stay here is much broader and varied than what this limited discussion suggests. Commitment to Second Life is strong precisely because disability community commitment and disability expression are not the only options but exist among a wide range of choices. Moreover, the expression of disability and use of such mediated environments is constantly debated in both word and deed.

This dissertation explores the concept of digital citizenship and why people that identify as disabled in real life are attracted to committed participation in virtual worlds, in particular, Second Life. What opportunities and rights are disabled people afforded here through the technology structure? What are the avenues of entry into the Second Life community, and what does the variety of these entry points and special interest sub-communities tell us about what is important to them? How is commitment debated and deepened through the use of public spaces and forums? And, what can researchers, public health and information professionals learn from these features that can improve their own outreach?

APA, Harvard, Vancouver, ISO, and other styles
28

Bhatt, Manish. "Leveraging Relocations in ELF-binaries for Linux Kernel Version Identification." ScholarWorks@UNO, 2018. https://scholarworks.uno.edu/td/2528.

Full text
Abstract:
In this paper, we present a working research prototype codeid-elf for ELF binaries based on its Windows counterpart codeid, which can identify kernels through relocation entries extracted from the binaries. We show that relocation-based signatures are unique and distinct and thus, can be used to accurately determine Linux kernel versions and derandomize the base address of the kernel in memory (when kernel Address Space Layout Randomization is enabled). We evaluate the effectiveness of codeid-elf on a subset of Linux kernels and find that the relocations in kernel code have nearly 100\% code coverage and low similarity (uniqueness) across various kernels. Finally, we show that codeid-elf, which leverages relocations in kernel code, can detect all kernel versions in the test set with almost 100% page hit rate and nearly zero false negatives.
APA, Harvard, Vancouver, ISO, and other styles
29

Stollenwerk, Alexander Verfasser], Sjoerd [Akademischer Betreuer] Dirksen, and Holger [Akademischer Betreuer] [Rauhut. "One-bit compressed sensing and fast binary embeddings / Alexander Stollenwerk ; Sjoerd Dirksen, Holger Rauhut." Aachen : Universitätsbibliothek der RWTH Aachen, 2019. http://d-nb.info/1215927878/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Stollenwerk, Alexander [Verfasser], Sjoerd Akademischer Betreuer] Dirksen, and Holger [Akademischer Betreuer] [Rauhut. "One-bit compressed sensing and fast binary embeddings / Alexander Stollenwerk ; Sjoerd Dirksen, Holger Rauhut." Aachen : Universitätsbibliothek der RWTH Aachen, 2019. http://d-nb.info/1215927878/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Ben, Khadra Mohamed Ammar [Verfasser], and Wolfgang [Akademischer Betreuer] Kunz. "Techniques For Efficient Binary-Level Coverage Analysis / Mohamed Ammar Ben Khadra ; Betreuer: Wolfgang Kunz." Kaiserslautern : Technische Universität Kaiserslautern, 2021. http://d-nb.info/1236571959/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Gröpl, Clemens. "Binary Decision Diagrams for Random Boolean Functions." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 1999. http://dx.doi.org/10.18452/14357.

Full text
Abstract:
Binary Decision Diagrams (BDDs) sind eine Datenstruktur für Boolesche Funktionen, die auch unter dem Namen branching program bekannt ist. In ordered binary decision diagrams (OBDDs) müssen die Tests einer festen Variablenordnung genügen. In free binary decision diagrams (FBDDs) darf jede Variable höchstens einmal getestet werden. Die Effizienz neuer Varianten des BDD-Konzepts wird gewöhnlich anhand spektakulärer (worst-case) Beispiele aufgezeigt. Wir verfolgen einen anderen Ansatz und vergleichen die Darstellungsgrößen für fast alle Booleschen Funktionen. Während I. Wegener bewiesen hat, daß für die `meisten' n die erwartete OBDD-Größe einer zufälligen Booleschen Funktion von n Variablen gleich der worst-case Größe bis auf Terme kleinerer Ordnung ist, zeigen wir daß dies nicht der Fall ist für n innerhalb von Intervallen konstanter Länge um die Werte n = 2h + h. Ferner gibt es Bereiche von n, in denen minimale FBDDs fast immer um mindestens einen konstanten Faktor kleiner sind als minimale OBDDs. Unsere Hauptsätze ha ben doppelt exponentielle Wahrschein- lichkeitsschranken (in n). Außerdem untersuchen wir die Entwicklung zufälliger OBDDs und ihrer worst-case Größe und decken dabei ein oszillierendes Verhalten auf, das erklärt, warum gewisse Aussagen im allgemeinen nicht verstärkt werden können.
Binary Decision Diagrams (BDDs) are a data structure for Boolean functions which are also known as branching programs. In ordered binary decision diagrams (OBDDs), the tests have to obey a fixed variable ordering. In free binary decision diagrams (FBDDs), each variable can be tested at most once. The efficiency of new variants of the BDD concept is usually demonstrated with spectacular (worst-case) examples. We pursue another approach and compare the representation sizes of almost all Boolean functions. Whereas I. Wegener proved that for `most' values of n the expected OBDD size of a random Boolean function of n variables is equal to the worst-case size up to terms of lower order, we show that this is not the case for n within intervals of constant length around the values n = 2h + h. Furthermore, ranges of n exist for which minimal FBDDs are almost always at least a constant factor smaller than minimal OBDDs. Our main theorems have doubly exponentially small probability bounds (in n). We also investigate the evolution of random OBDDs and their worst-case size, revealing an oscillating behaviour that explains why certain results cannot be improved in general.
APA, Harvard, Vancouver, ISO, and other styles
33

Turkmani, A. M. D. "Empirical and theoretical methods of BER prediction in binary FSK communication systems subjected to impulsive noise." Thesis, University of Liverpool, 1985. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.333098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Isawhe, Boladale Modupe. "Sequential frame synchronization over binary symmetrical channel for unequally distributed data symbols." Thesis, Kingston University, 2017. http://eprints.kingston.ac.uk/39287/.

Full text
Abstract:
Frame synchronization is a critical task in digital communications receivers as it enables the accurate decoding and recovery of transmitted information. Information transmitted over a wireless channel is represented as bit stream. The bit stream is typically organized into groups of bits which can be of the same or variable length, known as frames, with frames being demarcated prior to transmission by a known bit sequence. The task of the frame synchronizer in the receiver is then to correctly determine frame boundaries, given that the received bit stream is a possibly corrupted version of the transmitted bit stream due to the error-prone nature of the wireless channel. Bearing in mind that the problem of frame synchronization has been studied extensively for wireless communications, where frames have a known, constant length, this thesis examines and seeks to make a contribution to the problem of frame synchronization where frames are of variable, unknown lengths. This is a common occurrence in the transmission of multimedia information and in packet or burst mode communications. Furthermore, a uniform distribution of data symbols is commonly assumed in frame synchronization works as this simplifies analysis. In many practical situations however, this assumption may not hold true. An example is in bit streams generated in video sequences encoded through discrete cosine transform (DCT) and also in more recent video coding standards (H.264). In this work, we therefore propose a novel, optimal frame synchronization metric for transmission over a binary symmetric channel (BSC) with a known, unequal source data symbol distribution, and where frames are of unknown, varying lengths. We thus extend prior studies carried out for the additive White Gaussian noise (AWGN) channel. We also provide a performance evaluation for the derived metric, using simulations and by exact mathematical analysis. In addition, we provide an exact analysis for the performance evaluation of the commonly used hard correlation (HC) metric, in the case where data symbols have a known, unequal distribution, which hitherto has not been made available in literature. We thus compare the performance of our proposed metric with that of the HC metric. Finally, the results of our study are applied to the investigation of cross-layer frame synchronization in the transmission of H.264 video over a Worldwide Interoperability for Microwave Access (WiMAX) system. We thus demonstrate priori knowledge of the source data distribution can be exploited to enhance frame synchronization performance, for the cases where hard decision decoding is desirable.
APA, Harvard, Vancouver, ISO, and other styles
35

Martinek, Václav. "Rozpoznávání hudebních coververzí pomocí technik Music Information Retrieval." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2021. http://www.nusl.cz/ntk/nusl-442587.

Full text
Abstract:
This master’s thesis deals with designs and implementation of systems for music cover recognition. The introduction part is devoted to the calculation parameters from audio signal using Music Information Retrieval techniques. Subsequently, various forms of cover versions and musical aspects that cover versions share are defined. The thesis also deals in detail with the creation and distribution of a database of cover versions. Furthermore, the work presents methods and techniques for comparing and processing the calculated parameters. Attention is then paid to the OTI method, CSM calculation and methods dealing with parameter selection. The next part of the thesis is devoted to the design of systems for recognizing cover versions. Then there are compared systems already designed for recognizing cover versions. Furthermore, the thesis describes machine learning techniques and evaluation methods for evaluating the classification with a special emphasis on artificial neural networks. The last part of the thesis deals with the implementation of two systems in MATLAB and Python. These systems are then tested on the created database of cover versions.
APA, Harvard, Vancouver, ISO, and other styles
36

Garrammone, Giuliano [Verfasser]. "Non-Binary Codes with Applications to Satellite and Space Communications / Giuliano Garrammone." München : Verlag Dr. Hut, 2015. http://d-nb.info/1074063392/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Tanatmis, Akin [Verfasser], and Stefan [Akademischer Betreuer] Ruzika. "Mathematical Programming Approaches for Decoding of Binary Linear Codes / Akin Tanatmis. Betreuer: Stefan Ruzika." Kaiserslautern : Universitätsbibliothek Kaiserslautern, 2011. http://d-nb.info/1012812421/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Raach, Alexander. "A Bayesian semiparametric latent variable model for binary, ordinal and continuous response." Diss., lmu, 2006. http://nbn-resolving.de/urn:nbn:de:bvb:19-48301.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Lubenko, Ivans. "Towards robust steganalysis : binary classifiers and large, heterogeneous data." Thesis, University of Oxford, 2013. http://ora.ox.ac.uk/objects/uuid:c1ae44b8-94da-438d-b318-f038ad6aac57.

Full text
Abstract:
The security of a steganography system is defined by our ability to detect it. It is of no surprise then that steganography and steganalysis both depend heavily on the accuracy and robustness of our detectors. This is especially true when real-world data is considered, due to its heterogeneity. The difficulty of such data manifests itself in a penalty that has periodically been reported to affect the performance of detectors built on binary classifiers; this is known as cover source mismatch. It remains unclear how the performance drop that is associated with cover source mismatch is mitigated or even measured. In this thesis we aim to show a robust methodology to empirically measure its effects on the detection accuracy of steganalysis classifiers. Some basic machine-learning based methods, which take their origin in domain adaptation, are proposed to counter it. Specifically, we test two hypotheses through an empirical investigation. First, that linear classifiers are more robust than non-linear classifiers to cover source mismatch in real-world data and, second, that linear classifiers are so robust that given sufficiently large mismatched training data they can equal the performance of any classifier trained on small matched data. With the help of theory we draw several nontrivial conclusions based on our results. The penalty from cover source mismatch may, in fact, be a combination of two types of error; estimation error and adaptation error. We show that relatedness between training and test data, as well as the choice of classifier, both have an impact on adaptation error, which, as we argue, ultimately defines a detector's robustness. This provides a novel framework for reasoning about what is required to improve the robustness of steganalysis detectors. Whilst our empirical results may be viewed as the first step towards this goal, we show that our approach provides clear advantages over earlier methods. To our knowledge this is the first study of this scale and structure.
APA, Harvard, Vancouver, ISO, and other styles
40

Stinner, Markus Christian [Verfasser]. "Analysis of Spatially Coupled LDPC Codes on the Binary Erasure Channel / Markus Christian Stinner." München : Verlag Dr. Hut, 2016. http://d-nb.info/1122524463/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Kranz, Julian [Verfasser], Helmut [Akademischer Betreuer] Seidl, Antoine [Gutachter] Miné, and Helmut [Gutachter] Seidl. "Binary Analysis using On-Demand Tabulation of Function Summaries / Julian Kranz ; Gutachter: Antoine Miné, Helmut Seidl ; Betreuer: Helmut Seidl." München : Universitätsbibliothek der TU München, 2019. http://d-nb.info/1186256745/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Garmany, Behrad [Verfasser], Thorsten [Gutachter] Holz, and Konrad [Gutachter] Rieck. "MENTALESE - an architecture-agnostic analysis framework for binary executables / Behrad Garmany ; Gutachter: Thorsten Holz, Konrad Rieck ; Fakultät für Elektrotechnik und Informationstechnik." Bochum : Ruhr-Universität Bochum, 2021. http://d-nb.info/123423694X/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Pareschi, Federico. "Applying partial virtualization on ELF binaries through dynamic loaders." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5065/.

Full text
Abstract:
The technology of partial virtualization is a revolutionary approach to the world of virtualization. It lies directly in-between full system virtual machines (like QEMU or XEN) and application-related virtual machines (like the JVM or the CLR). The ViewOS project is the flagship of such technique, developed by the Virtual Square laboratory, created to provide an abstract view of the underlying system resources on a per-process basis and work against the principle of the Global View Assumption. Virtual Square provides several different methods to achieve partial virtualization within the ViewOS system, both at user and kernel levels. Each of these approaches have their own advantages and shortcomings. This paper provides an analysis of the different virtualization methods and problems related to both the generic and partial virtualization worlds. This paper is the result of an in-depth study and research for a new technology to be employed to provide partial virtualization based on ELF dynamic binaries. It starts with a mild analysis of currently available virtualization alternatives and then goes on describing the ViewOS system, highlighting its current shortcomings. The vloader project is then proposed as a possible solution to some of these inconveniences with a working proof of concept and examples to outline the potential of such new virtualization technique. By injecting specific code and libraries in the middle of the binary loading mechanism provided by the ELF standard, the vloader project can promote a streamlined and simplified approach to trace system calls. With the advantages outlined in the following paper, this method presents better performance and portability compared to the currently available ViewOS implementations. Furthermore, some of itsdisadvantages are also discussed, along with their possible solutions.
APA, Harvard, Vancouver, ISO, and other styles
44

Miklánek, Štěpán. "Určení místa původu hudebních interpretací české komorní a orchestrální hudby za pomoci technik Music Information Retrieval." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2019. http://www.nusl.cz/ntk/nusl-401985.

Full text
Abstract:
This diploma thesis is focused on the statistical analysis of chamber and orchestral classical music recordings composed by Czech authors. One of the chapters is dedicated to the description of a feature extraction process that precedes the statistical analysis. Techniques of Music Information Retrieval are used during several stages of this thesis. Databases used for analysis are described and pre-processing steps are proposed. A tool for synchronization of the recordings was implemented in MATLAB. Finally the system used for classification of recordings based on their geographical origin is proposed. The recordings are sorted by a binary classifier into two categories of Czech and world recordings. The first part of the statistical analysis is focused on individual analysis of features. The features are evaluated based on their discrimination strength. The second part of the statistical analysis is focused on feature selection, which can improve the overall accuracy of the binary classifier compared to the individual analysis of the features.
APA, Harvard, Vancouver, ISO, and other styles
45

Borokhovych, Yevgen [Verfasser], and Rolf [Akademischer Betreuer] Kraemer. "High-speed data capturing components for Super Resolution Maximum Length Binary Sequence UWB Radar / Yevgen Borokhovych. Betreuer: Rolf Kraemer." Cottbus : Universitätsbibliothek der BTU Cottbus, 2012. http://d-nb.info/1023040662/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Neumann, Ursula [Verfasser], Dmitrij [Akademischer Betreuer] Frischmann, Dominik [Gutachter] Heider, and Dmitrij [Gutachter] Frischmann. "Stability and Accuracy Analysis of a Feature Selection Ensemble for Binary Classification in Biomedical Datasets / Ursula Neumann ; Gutachter: Dominik Heider, Dmitrij Frischmann ; Betreuer: Dmitrij Frischmann." München : Universitätsbibliothek der TU München, 2018. http://d-nb.info/1154931641/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Nordén, Frans, and Reis Marlevi Filip von. "A Comparative Analysis of Machine Learning Algorithms in Binary Facial Expression Recognition." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254259.

Full text
Abstract:
In this paper an analysis is conducted regarding whether a higher classification accuracy of facial expressions are possible. The approach used is that the seven basic emotional states are combined into a binary classification problem. Five different machine learning algorithms are implemented: Support vector machines, Extreme learning Machine and three different Convolutional Neural Networks (CNN). The utilized CNN:S were one conventional, one based on VGG16 and transfer learning and one based on residual theory known as RESNET50. The experiment was conducted on two datasets, one small containing no contamination called JAFFE and one big containing contamination called FER2013. The highest accuracy was achieved with the CNN:s where RESNET50 had the highest classification accuracy. When comparing the classification accuracy with the state of the art accuracy an improvement of around 0.09 was achieved on the FER2013 dataset. This dataset does however include some ambiguities regarding what facial expression is shown. It would henceforth be of interest to conduct an experiment where humans classify the facial expressions in the dataset in order to achieve a benchmark.
APA, Harvard, Vancouver, ISO, and other styles
48

Staberg, Pontus. "Using Anomaly Detection to Identify Rejected Media Plans in Advertisement Planning : A feasibility study of using one-class classification and binary classification with artificially generated outliers to identify media plans most likely to be rejected." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-280581.

Full text
Abstract:
Planning an ad campaign can be a complex and tedious process. A media plan is a consolidated version of howinvested capital should be allocated depending on the advertiser’s requirements for the campaign. Ultimately, the advertiser must approve a proposed media plan before an ad campaign can be purchased – a process that can take time. This masters thesis compares unsupervised with supervised learning algorithms to determine the feasibility of using machine learning to identify media plans that are most likely to be rejected. A set of one-class classifiers was compared to state-of-the-art binary classifiers on a small set of ground truth rejected plans. It is shown that an unsupervised one-class support vector machine, with a recall of 0.69 and precision of 0.77, can successfully identify anomalous media plans. It is also shown that anomalous media plans can be modelled through artificially generating data close to approved media plans. With the artificially generated data, a binary support vector machine performed similarly to that of the one-class support vector machine. A feature ranking was performed in order to increase the interpretability of the resulting models. It is concluded that both unsupervised one-class classification as well as supervised binary classification with artificially generated outliers perform similarly and can identify anomalous media plans to some extent. However with the caveat that more data of anomalous plans is needed in order to get significant results.
Mediaplanering kan vara en lång och komplicerad process. En mediaplan är en konsoliderad version av hur en mediainvestering ska distribueras beroende på annonsörens kravspecifikation. Annonsören måste godkänna mediaplanen innan den köps av mediabyrån; denna process kan ta långt tid. Den här masteruppsatsen jämför oövervakad med övervakad inlärning för att avgöra om maskininlärning kan användas för att identifiera mediaplaner som kommer att få avslag av annonsören. En samling av enklass- och binärklassificerare tränades och jämfördes på en oberoende mängd riktiga nekade mediaplaner. Det visas att en oövervakad one-class support vector machine, med ett recall på 0.69 och en precision på 0.77, kan identifiera mediaplaner som med stor sannolikhet kommer att få avslag. Det visas även att mediaplaner som agerar okaraktäristiskt kan modelleras genom att generera punkter nära beslutsytan av godkända mediaplaner. Med den artificiella datan tränades en binärklassificerare och fick liknande resultat som one-class support vector machine. En parameterranking genomfördes för att öka förståelsen av modellerna. Slutsatsen är att både oövervakad och övervakad inlärning med artificiella datapunkter presterar likvärdigt och kan båda identifiera mediaplaner med ökad sannolikhet att bli nekade. Det ska noteras att testmängden var begränsad och att mer data behövs för att öka resultatets statistiska signifikans.
APA, Harvard, Vancouver, ISO, and other styles
49

Mohanty, Pragyan Paramita. "Function-based Algorithms for Biological Sequences." OpenSIUC, 2015. https://opensiuc.lib.siu.edu/dissertations/1120.

Full text
Abstract:
AN ABSTRACT OF THE DISSERTATION OF PRAGYAN P. MOHANTY, for the Doctor of Philosophy degree in ELECTRICAL AND COMPUTER ENGINEERING, presented on June 11, 2015, at Southern Illinois University Carbondale. TITLE: FUNCTION-BASED ALGORITHMS FOR BIOLOGICAL SEQUENCES MAJOR PROFESSOR: Dr. Spyros Tragoudas Two problems at two different abstraction levels of computational biology are studied. At the molecular level, efficient pattern matching algorithms in DNA sequences are presented. For gene order data, an efficient data structure is presented capable of storing all gene re-orderings in a systematic manner. A common characteristic of presented methods is the use of binary decision diagrams that store and manipulate binary functions. Searching for a particular pattern in a very large DNA database, is a fundamental and essential component in computational biology. In the biological world, pattern matching is required for finding repeats in a particular DNA sequence, finding motif and aligning sequences etc. Due to immense amount and continuous increase of biological data, the searching process requires very fast algorithms. This also requires encoding schemes for efficient storage of these search processes to operate on. Due to continuous progress in genome sequencing, genome rearrangements and construction of evolutionary genome graphs, which represent the relationships between genomes, become challenging tasks. Previous approaches are largely based on distance measure so that relationship between more phylogenetic species can be established with some specifically required rearrangement operations and hence within certain computational time. However because of the large volume of the available data, storage space and construction time for this evolutionary graph is still a problem. In addition, it is important to keep track of all possible rearrangement operations for a particular genome as biological processes are uncertain. This study presents a binary function-based tool set for efficient DNA sequence storage. A novel scalable method is also developed for fast offline pattern searches in large DNA sequences. This study also presents a method which efficiently stores all the gene sequences associated with all possible genome rearrangements such as transpositions and construct the evolutionary genome structure much faster for multiple species. The developed methods benefit from the use of Boolean functions; their compact storage using canonical data structure and the existence of built-in operators for these data structures. The time complexities depend on the size of the data structures used for storing the functions that represent the DNA sequences and/or gene sequences. It is shown that the presented approaches exhibit sub linear time complexity to the sequence size. The number of nodes present in the DNA data structure, string search time on these data structures, depths of the genome graph structure, and the time of the rearrangement operations are reported. Experiments on DNA sequences from the NCBI database are conducted for DNA sequence storage and search process. Experiments on large gene order data sets such as: human mitochondrial data and plant chloroplast data are conducted and depth of this structure was studied for evolutionary processes on gene sequences. The results show that the developed approaches are scalable.
APA, Harvard, Vancouver, ISO, and other styles
50

Seger, Cedric. "An investigation of categorical variable encoding techniques in machine learning: binary versus one-hot and feature hashing." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-237426.

Full text
Abstract:
Machine learning methods can be used for solving important binary classification tasks in domains such as display advertising and recommender systems. In many of these domains categorical features are common and often of high cardinality. Using one-hot encoding in such circumstances lead to very high dimensional vector representations, causing memory and computability concerns for machine learning models. This thesis investigated the viability of a binary encoding scheme in which categorical values were mapped to integers that were then encoded in a binary format. This binary scheme allowed for representing categorical features using log2(d)-dimensional vectors, where d is the dimension associated with a one-hot encoding. To evaluate the performance of the binary encoding, it was compared against one-hot and feature hashed representations with the use of linear logistic regression and neural networks based models. These models were trained and evaluated using data from two publicly available datasets: Criteo and Census. The results showed that a one-hot encoding with a linear logistic regression model gave the best performance according to the PR-AUC metric. This was, however, at the expense of using 118 and 65,953 dimensional vector representations for Census and Criteo respectively. A binary encoding led to a lower performance but used only 35 and 316 dimensions respectively. For Criteo, binary encoding suffered significantly in performance and feature hashing was perceived as a more viable alternative. It was also found that employing a neural network helped mitigate any loss in performance associated with using binary and feature hashed representations.
Maskininlärningsmetoder kan användas för att lösa viktiga binära klassificeringsuppgifter i domäner som displayannonsering och rekommendationssystem. I många av dessa domäner är kategoriska variabler vanliga och ofta av hög kardinalitet. Användning av one-hot-kodning under sådana omständigheter leder till väldigt högdimensionella vektorrepresentationer. Detta orsakar minnesoch beräkningsproblem för maskininlärningsmodeller. Denna uppsats undersökte användbarheten för ett binärt kodningsschema där kategoriska värden var avbildade på heltalvärden som sedan kodades i ett binärt format. Detta binära system tillät att representera kategoriska värden med hjälp av log2(d) -dimensionella vektorer, där d är dimensionen förknippad med en one-hot kodning. För att utvärdera prestandan för den binära kodningen jämfördes den mot one-hot och en hashbaserad kodning. En linjär logistikregression och ett neuralt nätverk tränades med hjälp av data från två offentligt tillgängliga dataset: Criteo och Census, och den slutliga prestandan jämfördes. Resultaten visade att en one-hot kodning med en linjär logistisk regressionsmodell gav den bästa prestandan enligt PR-AUC måttet. Denna metod använde dock 118 och 65,953 dimensionella vektorrepresentationer för Census respektive Criteo. En binär kodning ledde till en lägre prestanda generellt, men använde endast 35 respektive 316 dimensioner. Den binära kodningen presterade väsentligt sämre specifikt för Criteo datan, istället var hashbaserade kodningen en mer attraktiv lösning. Försämringen i prestationen associerad med binär och hashbaserad kodning kunde mildras av att använda ett neuralt nätverk.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography