To see the other types of publications on this topic, follow the link: Decodificación.

Dissertations / Theses on the topic 'Decodificación'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 16 dissertations / theses for your research on the topic 'Decodificación.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Castillo, Hilario Mario Buenaventura. "Capacidad de codificación y decodificación facial de emociones en estudiantes universitarios de ingeniería." Master's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/4104.

Full text
Abstract:
En el Perú existe un vacío en cuanto a investigaciones sobre la comunicación no verbal. Los comunicólogos se han concentrado más en el estudio del contenido o los efectos de los medios de comunicación de masas y, últimamente, en el uso de las nuevas tecnologías de la información, olvidando que la comunicación constituye un campo más amplio. El lenguaje del cuerpo en los mass media nacionales o la comunicación no verbal de los políticos, por ejemplo, son temas aún pendientes. Los peruanos, inmersos en una sociedad competitiva, demandan respuestas a cómo mejorar su comunicación interpersonal, grupal y social, no solamente desde el punto de vista de su lenguaje verbal, sino, principalmente, de su lenguaje no verbal. Esto se puede comprobar en los medios de comunicación y en los libros de autoayuda que circulan profusamente con temas como: mejore su inteligencia emocional, cómo hablar en público, marketing personal, imagen personal, cómo afrontar una entrevista laboral, etcétera. Esta demanda de respuestas a cómo mejorar la comunicación interpersonal, grupal y social, también, lo he percibido en mi relación con los alumnos, exalumnos y docentes de la Universidad Nacional Agraria La Molina. Pues bien, muchas de las respuestas que se dan se sustentan en el saber popular, en la propia experiencia o en investigaciones realizadas en otros países, mas no en investigaciones realizadas en el Perú. Y es esta realidad la que me ha motivado indagar acerca de la comunicación no verbal en los alumnos de ingeniería. Esta investigación, titulada “Capacidad de codificar y decodificar emociones faciales en estudiantes universitarios de ingeniería”, partió del problema general ¿en qué medida se relacionan la capacidad de codificación y decodificación facial de emociones y el rendimiento académico en jóvenes universitarios de ingeniería? En tal sentido, se planteó como objetivo general “determinar en qué medida se relacionan la capacidad de codificación y decodificación facial de emociones y el rendimiento académico en los jóvenes universitarios de ingeniería”. En esta investigación, se tomó una muestra probabilística conformada por 77 estudiantes de la Universidad Nacional Agraria La Molina, de los cuales 38 fueron mujeres y 39, varones, cuyas edades fluctuaron entre 18 y 22 años. A ellos se les aplicó un test propuesto por Paul Ekman que permitió medir la capacidad de decodificación. Y, para medir la capacidad de codificación, se solicitó a cada participante que expresara cada una de las seis emociones básicas y universales y se tomara una fotografía por cada una. Estas fotografías tuvieron las siguientes características: emoción expresada solamente con movimientos faciales, plano busto de frente, en colores, fondo blanco, de 6 cm. de ancho por 6 cm. de largo. Se pusieron en un fólder para que fueran evaluadas por un grupo de personas o jueces, tanto hombres como mujeres. Asimismo, las mismas fotografías fueron evaluadas por el investigador ponderando los movimientos de cada zona del rostro. Los puntajes obtenidos en el test de decodificación y la evaluación de sus fotografías se relacionaron con los promedios ponderados obtenidos en la universidad. Para esto, se usó un método estadístico y se halló el coeficiente de correlación respectivo. Al empezar la investigación, se planteó como hipótesis general: “La capacidad de codificación y decodificación facial de emociones y el rendimiento académico no se relacionan en jóvenes universitarios de ingeniería”. Sin embargo, a la luz de los resultados, la hipótesis quedó rechazada1. En consecuencia, la hipótesis reformulada o la tesis que se sustenta en este trabajo es: La capacidad de codificación y decodificación facial de emociones y el rendimiento académico tienen una correlación poco significativa negativa o positiva en jóvenes universitarios de ingeniería. Considerando los resultados, el tipo de relación dependerá de otra variable “información y práctica sobre comunicación no verbal”, sobre todo respecto a la expresión e interpretación de las emociones en el rostro. Cuando los estudiantes de ingeniería no tienen conocimientos de comunicación no verbal hay una correlación negativa débil o relación inversa poco significativa (-0.17) entre la capacidad de decodificar emociones y el rendimiento académico. Es decir, los universitarios más estudiosos, de mayor promedio, tienden a ser menos competentes para reconocer emociones. Después de recibir lecciones de comunicación no verbal, la relación entre la capacidad de reconocer emociones y el rendimiento académico se vuelve positiva débil (0.16). En otras palabras, se tiende a que a mayor promedio mayor capacidad para el reconocimiento de emociones. Lo mismo ocurre con la codificación. Cuando los estudiantes han recibido información acerca de la comunicación no verbal, la capacidad de codificar facialmente las emociones y el rendimiento tienen una relación positiva muy débil (0.07). Estos resultados obtenidos son importantes, ya que también demuestran que aquellos estudiantes que han recibido información sobre la expresión y el reconocimiento de emociones pueden mejorar su competencia comunicativa no verbal. Esto, plantea una tarea a las instituciones educativas de todos los niveles, pero, sobre todo, a las universidades de ingeniería del Perú como la Universidad Nacional Agraria La Molina. Finalmente, este informe de tesis está organizado en cuatro capítulos. El Capítulo I trata de todo lo referente al problema de investigación. El Capítulo II contiene el marco teórico respecto a las variables y se reseñan los antecedentes, es decir, estudios similares que se han realizado en el país y en el extranjero. En el Capítulo III se describen los aspectos metodológicos. Y en el Capítulo IV se presentan los resultados y el análisis de los mismos.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
2

Madera, Vivar Carlo Santiago. "Diseño de una arquitectura de codificación/decodificación de acuerdo al estándar de encriptación AES." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17652.

Full text
Abstract:
El presente trabajo consiste en el diseño de un circuito digital para codificación y decodificación del algoritmo de encriptación AES (Advanced Encryption Standard) 1 para la implementación en FPGA de tecnología 90 nm como el Cyclone II y Virtex IV de las compañías Altera y Xilinx respectivamente. Este algoritmo consta de cuatro bloques, los cuales son AddRoundKey, SubBytes e InvSubBytes, ShiftRows e InvShiftRows y MixColumns e InvMixColumns. El diseño del bloque SubBytes e InvSubBytes fue adaptado del diseño propuesto por Wolkerstorfer [1] usando la descomposición aritmética de GF ((24)2). De igual manera, el diseño del bloque MixColumns e InvMixColumns fue adaptado del diseño propuesto por Satoh [2] usando la técnica de descomposición matricial. Los bloques AddRoundKey, ShiftRows e InvShiftRows y el bloque completo AES fueron diseñados usando diversas técnicas de optimización como paralelismo de operaciones (pipeline), FSMD y ASMD. El presente trabajo compara dos arquitecturas propuestas para algoritmo AES utilizando cero, una y dos etapas de pipeline en el bloque SubBytes e InvSubBytes. Referente a las arquitecturas, la primera se realizó usando la técnica de FSMD, mientras que la segunda se realizó usando la técnica de ASMD. Se realizó la verificación funcional del circuito usando la herramienta de simulación ModelSim de la empresa MentorGraphics. Posteriormente se comparó los resultados con el documento del estándar de encriptación AES del NIST [3] obteniendo resultados exitosos. Los requerimientos más importantes para este diseño son la alta velocidad de transmisión de datos (throughput) y el menor consumo de ´área. En base a esto, se realizó el análisis de síntesis y se obtuvieron los siguientes resultados. Para una arquitectura en ASMD se obtuvo hasta 0.382 Mbits/LUT y 182.538 MHz usando la plataforma Virtex IV; mientras que para una plataforma Cyclone II se obtuvo 0.162 Mbits/LE y 122.9 MHz. Respecto a la arquitectura FSMD se obtuvo hasta 0.305 Mbits/LUT y 185.895 MHz usando la plataforma Virtex IV; mientras que para una plataforma Cyclone II se obtuvo 0.159 Mbits/LE y 122.26 MHz. De acuerdo a estos resultados, se comprueba que la mejor técnica para realizar el diseño del algoritmo AES es la de ASMD.
APA, Harvard, Vancouver, ISO, and other styles
3

Trujillo, Rasúa Rafael Arturo. "Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7108.

Full text
Abstract:
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton.<br>Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
4

Albornoz, Ley Kamila, Aróstica Nicole Frez, Valencia Nicolás Jaña, Betancourt Javier Miranda, and Ortiz Pablo Rubilar. "Comprensión lectora en trastorno específico del lenguaje. Su relación con la comprensión narrativa, inferencias, léxico y decodificación." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/130693.

Full text
Abstract:
Los escolares con Trastorno Específico del Lenguaje (TEL) pueden presentar diversas dificultades en la comprensión lectora. Sin embargo, aún se discute en qué medida las habilidades lingüísticas y la decodificación se asocian a esta. Por lo tanto, los objetivos de esta investigación son: (1) Establecer la existencia de una asociación entre comprensión oral y comprensión lectora; y decodificación con comprensión lectora, tanto en niños con TEL como en niños DTL. (2) Comparar la asociación de la comprensión lectora establecida en relación a la decodificación y comprensión oral entre los grupos con TEL y DTL. La muestra se constituyó por 25 niños (12 con TEL y 13 con DTL) que cursaban primero básico en escuelas con Proyecto de Integración en Santiago. Se evaluó comprensión lectora, decodificación y habilidades lingüísticas de la comprensión oral (comprensión narrativa, inferencias y léxico). Los resultados demostraron que los niños con TEL tenían un rendimiento significativamente menor que los escolares con DTL en todas las habilidades evaluadas. Además, se observó que en ambos grupos (TEL y DTL) sólo la decodificación se asoció significativamente a la comprensión lectora. Finalmente, se proponen tres tipos de perfiles lectores en escolares con TEL, considerándose su desempeño como heterogéneo. Se concluye que los niños con TEL corresponden a un grupo de riesgo lector, por lo cual es necesario generar lineamientos de intervención para así disminuir sus dificultades en la etapa escolar.<br>Children with Specific Language Impairment (SLI) may have several difficulties in reading comprehension. However, there is still in debate the extent to which language skills and decoding are associated with this. Therefore, the objectives of this research are: (1) establish the existence of an association between oral and reading comprehension; decoding and reading comprehension in children with SLI and children with TLD. (2) Compare the association of reading comprehension established in relation to the decoding and oral comprehension between groups with SLI and TLD. The sample consisted of 25 children (12 with SLI and 13 TLD) who were in first grade and enrolled in schools with an Integration Project in Santiago. Reading comprehension, decoding and language skills of oral comprehension (narrative comprehension, inference and vocabulary) were evaluated. The results showed that children with SLI had a significantly lower performance than the ones with TLD in all the evaluated skills. In addition, we observed that in both groups (SLI and TLD) only decoding was significantly associated with reading comprehension. Finally, three types of readers profiles are proposed in children with SLI, considering their heterogeneous performance. We conclude that children with SLI correspond to a risk group reader, for which it is necessary to generate guidelines for intervention in order to reduce their difficulties at scholar age.
APA, Harvard, Vancouver, ISO, and other styles
5

Torres, Laca Víctor. "Burns, William. Decodificación de quipus. Lima: Banco Central de Reserva del Perú y Universidad Alas Peruanas, 2002, 203 páginas." Pontificia Universidad Católica del Perú, 2014. http://repositorio.pucp.edu.pe/index/handle/123456789/122250.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Vásquez, Vergara Gema. "Errores de percepción auditiva cometidos por oyentes nativos del español de Chile en la decodificación del texto hablado en inglés." Tesis, Universidad de Chile, 2013. http://repositorio.uchile.cl/handle/2250/114318.

Full text
Abstract:
Tesis para optar al grado de Magíster en Lingüística mención Lengua Inglesa<br>No autorizada su publicación a texto completo, según petición de su autor<br>El presente estudio entrega los resultados de un experimento de decodificación auditiva del texto hablado en inglés con la participación de oyentes nativos del español de Chile. Las interrogantes que motivan el estudio se relacionan con qué tipo de errores de percepción auditiva son cometidos con mayor frequencia, en qué contextos se producen y qué factores podrían estar afectando la correcta decodificación del texto hablado en inglés. Los resultados de este experimento dan cuenta de la complejidad de los errores de decodificación cometidos, debido en gran parte, a que no solamente es el componente fonético-fonológico el factor involucrado en las decodificaciones erróneas, sino que además, participan de manera importante factores como el conocimiento gramatical y semántico-pragmático de de la lengua inglesa.
APA, Harvard, Vancouver, ISO, and other styles
7

Lacruz, Jucht Jesús Omar. "VLSI algorithms and architectures for non-binary-LDPC decoding." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/73266.

Full text
Abstract:
[EN] This thesis studies the design of low-complexity soft-decision Non-Binary Low-Density Parity-Check (NB-LDPC) decoding algorithms and their corresponding hardware architectures suitable for decoding high-rate codes at high throughput (hundreds of Mbps and Gbps). In the first part of the thesis the main aspects concerning to the NB-LDPC codes are analyzed, including a study of the main bottlenecks of conventional softdecision decoding algorithms (Q-ary Sum of Products (QSPA), Extended Min-Sum (EMS), Min-Max and Trellis-Extended Min-Sum (T-EMS)) and their corresponding hardware architectures. Despite the limitations of T-EMS algorithm (high complexity in the Check Node (CN) processor, wiring congestion due to the high number of exchanged messages between processors and the inability to implement decoders over high-order Galois fields due to the high decoder complexity), it was selected as starting point for this thesis due to its capability to reach high-throughput. Taking into account the identified limitations of the T-EMS algorithm, the second part of the thesis includes six papers with the results of the research made in order to mitigate the T-EMS disadvantages, offering solutions that reduce the area, the latency and increase the throughput compared to previous proposals from literature without sacrificing coding gain. Specifically, five low-complexity decoding algorithms are proposed, which introduce simplifications in different parts of the decoding process. Besides, five complete decoder architectures are designed and implemented on a 90nm Complementary Metal-Oxide-Semiconductor (CMOS) technology. The results show an achievement in throughput higher than 1Gbps and an area less than 10 mm2. The increase in throughput is 120% and the reduction in area is 53% compared to previous implementations of T-EMS, for the (837,726) NB-LDPC code over GF(32). The proposed decoders reduce the CN area, latency, wiring between CN and Variable Node (VN) processor and the number of storage elements required in the decoder. Considering that these proposals improve both area and speed, the efficiency parameter (Mbps / Million NAND gates) is increased in almost five times compared to other proposals from literature. The improvements in terms of area allow us to implement NB-LDPC decoders over high-order fields which had not been possible until now due to the highcomplexity of decoders previously proposed in literature. Therefore, we present the first post-place and route report for high-rate codes over high-order fields higher than Galois Field (GF)(32). For example, for the (1536,1344) NB-LDPC code over GF(64) the throughput is 1259Mbps occupying an area of 28.90 mm2. On the other hand, a decoder architecture is implemented on a Field Programmable Gate Array (FPGA) device achieving 630 Mbps for the high-rate (2304,2048) NB-LDPC code over GF(16). To the best knowledge of the author, these results constitute the highest ones presented in literature for similar codes and implemented on the same technologies.<br>[ES] En esta tesis se aborda el estudio del diseño de algoritmos de baja complejidad para la decodificación de códigos de comprobación de paridad de baja densidad no binarios (NB-LDPC) y sus correspondientes arquitecturas apropiadas para decodificar códigos de alta tasa a altas velocidades (cientos de Mbps y Gbps). En la primera parte de la tesis los principales aspectos concernientes a los códigos NB-LDPC son analizados, incluyendo un estudio de los principales cuellos de botella presentes en los algoritmos de decodificación convencionales basados en decisión blanda (QSPA, EMS, Min-Max y T-EMS) y sus correspondientes arquitecturas hardware. A pesar de las limitaciones del algoritmo T-EMS (alta complejidad en el procesador del nodo de chequeo de paridad (CN), congestión en el rutado debido al intercambio de mensajes entre procesadores y la incapacidad de implementar decodificadores para campos de Galois de orden elevado debido a la elevada complejidad), éste fue seleccionado como punto de partida para esta tesis debido a su capacidad para alcanzar altas velocidades. Tomando en cuenta las limitaciones identificadas en el algoritmo T-EMS, la segunda parte de la tesis incluye seis artículos con los resultados de la investigación realizada con la finalidad de mitigar las desventajas del algoritmo T-EMS, ofreciendo soluciones que reducen el área, la latencia e incrementando la velocidad comparado con propuestas previas de la literatura sin sacrificar la ganancia de codificación. Especificamente, cinco algoritmos de decodificación de baja complejidad han sido propuestos, introduciendo simplificaciones en diferentes partes del proceso de decodificación. Además, arquitecturas completas de decodificadores han sido diseñadas e implementadas en una tecnologia CMOS de 90nm consiguiéndose una velocidad mayor a 1Gbps con un área menor a 10 mm2, aumentando la velocidad en 120% y reduciendo el área en 53% comparado con previas implementaciones del algoritmo T-EMS para el código (837,726) implementado sobre campo de Galois GF(32). Las arquitecturas propuestas reducen el área del CN, latencia, número de mensajes intercambiados entre el nodo de comprobación de paridad (CN) y el nodo variable (VN) y el número de elementos de almacenamiento en el decodificador. Considerando que estas propuestas mejoran tanto el área comola velocidad, el parámetro de eficiencia (Mbps / Millones de puertas NAND) se ha incrementado en casi cinco veces comparado con otras propuestas de la literatura. Las mejoras en términos de área nos ha permitido implementar decodificadores NBLDPC sobre campos de Galois de orden elevado, lo cual no habia sido posible hasta ahora debido a la alta complejidad de los decodificadores anteriormente propuestos en la literatura. Por lo tanto, en esta tesis se presentan los primeros resultados incluyendo el emplazamiento y rutado para códigos de alta tasa sobre campos finitos de orden mayor a GF(32). Por ejemplo, para el código (1536,1344) sobre GF(64) la velocidad es 1259 Mbps ocupando un área de 28.90 mm2. Por otro lado, una arquitectura de decodificador ha sido implementada en un dispositivo FPGA consiguiendo 660 Mbps de velocidad para el código de alta tasa (2304,2048) sobre GF(16). Estos resultados constituyen, según el mejor conocimiento del autor, los mayores presentados en la literatura para códigos similares implementados para las mismas tecnologías.<br>[CAT] En esta tesi s'aborda l'estudi del disseny d'algoritmes de baixa complexitat per a la descodificació de codis de comprovació de paritat de baixa densitat no binaris (NB-LDPC), i les seues corresponents arquitectures per a descodificar codis d'alta taxa a altes velocitats (centenars de Mbps i Gbps). En la primera part de la tesi els principals aspectes concernent als codis NBLDPC són analitzats, incloent un estudi dels principals colls de botella presents en els algoritmes de descodificació convencionals basats en decisió blana (QSPA, EMS, Min-Max i T-EMS) i les seues corresponents arquitectures. A pesar de les limitacions de l'algoritme T-EMS (alta complexitat en el processador del node de revisió de paritat (CN), congestió en el rutat a causa de l'intercanvi de missatges entre processadors i la incapacitat d'implementar descodificadors per a camps de Galois d'orde elevat a causa de l'elevada complexitat), este va ser seleccionat com a punt de partida per a esta tesi degut a la seua capacitat per a aconseguir altes velocitats. Tenint en compte les limitacions identificades en l'algoritme T-EMS, la segona part de la tesi inclou sis articles amb els resultats de la investigació realitzada amb la finalitat de mitigar els desavantatges de l'algoritme T-EMS, oferint solucions que redueixen l'àrea, la latència i incrementant la velocitat comparat amb propostes prèvies de la literatura sense sacrificar el guany de codificació. Específicament, s'han proposat cinc algoritmes de descodificació de baixa complexitat, introduint simplificacions en diferents parts del procés de descodificació. A més, s'han dissenyat arquitectures completes de descodificadors i s'han implementat en una tecnologia CMOS de 90nm aconseguint-se una velocitat major a 1Gbps amb una àrea menor a 10 mm2, augmentant la velocitat en 120% i reduint l'àrea en 53% comparat amb prèvies implementacions de l'algoritme T-EMS per al codi (837,726) implementat sobre camp de Galois GF(32). Les arquitectures proposades redueixen l'àrea del CN, la latència, el nombre de missatges intercanviats entre el node de comprovació de paritat (CN) i el node variable (VN) i el nombre d'elements d'emmagatzemament en el descodificador. Considerant que estes propostes milloren tant l'àrea com la velocitat, el paràmetre d'eficiència (Mbps / Milions deportes NAND) s'ha incrementat en quasi cinc vegades comparat amb altres propostes de la literatura. Les millores en termes d'àrea ens ha permès implementar descodificadors NBLDPC sobre camps de Galois d'orde elevat, la qual cosa no havia sigut possible fins ara a causa de l'alta complexitat dels descodificadors anteriorment proposats en la literatura. Per tant, nosaltres presentem els primers reports després de l'emplaçament i rutat per a codis d'alta taxa sobre camps finits d'orde major a GF(32). Per exemple, per al codi (1536,1344) sobre GF(64) la velocitat és 1259 Mbps ocupant una àrea de 28.90 mm2. D'altra banda, una arquitectura de descodificador ha sigut implementada en un dispositiu FPGA aconseguint 660 Mbps de velocitat per al codi d'alta taxa (2304,2048) sobre GF(16). Estos resultats constitueixen, per al millor coneixement de l'autor, els millors presentats en la literatura per a codis semblants implementats per a les mateixes tecnologies.<br>Lacruz Jucht, JO. (2016). VLSI algorithms and architectures for non-binary-LDPC decoding [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/73266<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
8

Angarita, Preciado Fabián Enrique. "Diseño de decodificadores de altas prestaciones para código LDPC." Doctoral thesis, Universitat Politècnica de València, 2013. http://hdl.handle.net/10251/31646.

Full text
Abstract:
En esta tesis se han investigado los algoritmos de decodificación para códigos de comprobación de paridad de baja densidad (LDPC) y las arquitecturas para la implementación hardware de éstos. El trabajo realizado se centra en los algoritmos del tipo de intercambio de mensajes para códigos estructurados los cuales se incluyen en varios estándares de comunicaciones. Inicialmente se han evaluado las prestaciones de los algoritmos existentes Sum-product, Min-Sum y las principales variantes de este último (Min-Sum con escalado y Min-Sum con offset). Además, se ha realizado un análisis de precisión finita utilizando los códigos LDPC de los estándares IEEE 802.3an, IEEE 802.11n e IEEE 802.16e. Posteriormente se han propuesto dos algoritmos basados en el algoritmo Min-Sum, denominados Min-Sum entero y Min-Sum modificado con corrección. La complejidad de éstos es menor que las de los algoritmos estudiados anteriormente y además permiten una implementación hardware eficiente. Por otra parte, se han estudiado diferentes métodos de actualización de los algoritmos de decodificación: por inundación, por capas horizontales (layered) y por capas verticales (shuffled), y se ha propuesto un nuevo método por capas verticales entrelazadas (x-shuffled) que consigue mejorar la tasa de decodificación. Tras el estudio algorítmico, se han realizado implementaciones hardwar} con diferentes arquitecturas para los algoritmos y métodos de actualización evaluados y propuestos. En la mayoría de algoritmos implementados se requiere el cálculo de los dos primeros mínimos, por lo que inicialmente se realiza un estudio de las arquitecturas hardware para realizar este cálculo y se ha propuesto una nueva arquitectura de menor complejidad. En segundo lugar se ha realizado una comparación de las prestaciones hardware de los diferentes algoritmos con las arquitecturas de referencia: completamente paralela y parcialmente paralela basada en memorias. También se han propuesto dos arquitecturas enfocadas a la alta velocidad, la cuales se implementan con el algoritmo Sum-Product. La primera es una modificación de la arquitectura Sliced Message-Passing que consigue una reducción en el área de la implementación, y la segunda, es una arquitectura específica para el método de actualización propuesto x-shuffled que alcanza tasas de decodificación muy altas. Finalmente, se han implementado los algoritmos propuestos con la arquitectura layered obteniendo implementaciones hardware eficientes con baja área y muy alta tasa de decodificación. Estas últimas consiguen un ratio entre tasa de decodificación y área mejor que las implementaciones existentes en la literatura. Por último, se ha evaluado el comportamiento de los algoritmos de decodificación estudiados en la zona de baja tasa de error, donde las prestaciones se suelen degradar debido a la aparición de un suelo de error. Para ello se ha implementado un simulador hardware usando dispositivos FPGA. La tasa de datos alcanzada con el simulador hardware diseñado es superior a la de otros simuladores documentados en la literatura. En la zona de baja tasa de error el algoritmo propuesto Min-Sum modificado con corrección presenta un mejor comportamiento que el resto de algoritmos evaluados, consiguiendo bajar el suelo de error varios órdenes de magnitud.<br>Angarita Preciado, FE. (2013). Diseño de decodificadores de altas prestaciones para código LDPC [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31646<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
9

García, Herrero Francisco Miguel. "Architectures for soft-decision decoding of non-binary codes." Doctoral thesis, Universitat Politècnica de València, 2013. http://hdl.handle.net/10251/33753.

Full text
Abstract:
En esta tesis se estudia el dise¿no de decodificadores no-binarios para la correcci'on de errores en sistemas de comunicaci'on modernos de alta velocidad. El objetivo es proponer soluciones de baja complejidad para los algoritmos de decodificaci'on basados en los c'odigos de comprobaci'on de paridad de baja densidad no-binarios (NB-LDPC) y en los c'odigos Reed-Solomon, con la finalidad de implementar arquitecturas hardware eficientes. En la primera parte de la tesis se analizan los cuellos de botella existentes en los algoritmos y en las arquitecturas de decodificadores NB-LDPC y se proponen soluciones de baja complejidad y de alta velocidad basadas en el volteo de s'¿mbolos. En primer lugar, se estudian las soluciones basadas en actualizaci'on por inundaci 'on con el objetivo de obtener la mayor velocidad posible sin tener en cuenta la ganancia de codificaci'on. Se proponen dos decodificadores diferentes basados en clipping y t'ecnicas de bloqueo, sin embargo, la frecuencia m'axima est'a limitada debido a un exceso de cableado. Por este motivo, se exploran algunos m'etodos para reducir los problemas de rutado en c'odigos NB-LDPC. Como soluci'on se propone una arquitectura basada en difusi'on parcial para algoritmos de volteo de s'¿mbolos que mitiga la congesti'on por rutado. Como las soluciones de actualizaci 'on por inundaci'on de mayor velocidad son sub-'optimas desde el punto de vista de capacidad de correci'on, decidimos dise¿nar soluciones para la actualizaci'on serie, con el objetivo de alcanzar una mayor velocidad manteniendo la ganancia de codificaci'on de los algoritmos originales de volteo de s'¿mbolo. Se presentan dos algoritmos y arquitecturas de actualizaci'on serie, reduciendo el 'area y aumentando de la velocidad m'axima alcanzable. Por 'ultimo, se generalizan los algoritmos de volteo de s'¿mbolo y se muestra como algunos casos particulares puede lograr una ganancia de codificaci'on cercana a los algoritmos Min-sum y Min-max con una menor complejidad. Tambi'en se propone una arquitectura eficiente, que muestra que el 'area se reduce a la mitad en comparaci'on con una soluci'on de mapeo directo. En la segunda parte de la tesis, se comparan algoritmos de decodificaci'on Reed- Solomon basados en decisi'on blanda, concluyendo que el algoritmo de baja complejidad Chase (LCC) es la soluci'on m'as eficiente si la alta velocidad es el objetivo principal. Sin embargo, los esquemas LCC se basan en la interpolaci'on, que introduce algunas limitaciones hardware debido a su complejidad. Con el fin de reducir la complejidad sin modificar la capacidad de correcci'on, se propone un esquema de decisi'on blanda para LCC basado en algoritmos de decisi'on dura. Por 'ultimo se dise¿na una arquitectura eficiente para este nuevo esquema<br>García Herrero, FM. (2013). Architectures for soft-decision decoding of non-binary codes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/33753<br>TESIS<br>Premiado
APA, Harvard, Vancouver, ISO, and other styles
10

Montenegro, Rubio Marcelo. "̂Recibieron PLR por ir a sapear callaguaguas : Chilenos residentes en Suecia y su percepción de titulares del periódico chileno La Cuarta." Thesis, Stockholm University, Department of Spanish, Portuguese and Latin American Studies, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-7963.

Full text
Abstract:
<p>En el presente estudio se identifican los procedimientos de creación léxica en 21 titulares periodísticos del diario popular chileno La Cuarta. Este tabloide es conocido por su forma de presentar las noticias y aplicar un tono festivo haciendo uso de variedades linguísticas que se acercan al registro coloquial en su variante más popular.</p><p>Posteriormente son presentados los titulares en forma de encuesta a un grupo de chilenos residentes en Suecia desde la década de los 70 y principios de los 80. El objetivo principal de este estudio es comprobar si este conjunto de personas residentes en Suecia, denominado grupo de estudio, mantiene vigente la capacidad de decodificar téminos populares de reciente data manifestados en La Cuarta.</p><p>Nuestra hipótesis nos lleva a deducir que estos individuos poseen una "cierta incapacidad" de decodificar los términos y lo tácito de estos, asimismo nos hace suponer que; entre mayor tiempo de alejamiento de su comunidad de habla menor capacidad de decodificación poseen</p><p>estas personas. Además que los factores relacionados con la cantidad de visitas a Chile, y el medio con el cual se informan de las noticias de su país, influencien en el entendimiento de los titulares.</p><p>Las respuestas ofrecidas por los informantes del grupo de control y así como del grupo de estudio fueron medidas de una forma individual. Para este propósito aplicamos un método que valoró del 1 al 3 las respuestas. Lo que posteriormente nos entrego un resultado que se</p><p>presenta en un análisis cuantitativo en la obra.</p><p>Las conclusiones generales obtenidas muestran que los informantes residentes en Suecia poseen una debilitación en la decodificación de "ciertas expresiones". Además descubrimos que la cantidad de viajes que el individuo haya hecho a Chile y los años que ha residido en</p><p>Suecia, no influye excesivamente en la decodificación. En lo que se refiere al medio con el cual se informan de los acontecimientos de su país, descubrimos que el individuo, a pesar de las fuentes que usa para informarse, "excluyendo al periódico La Cuarta" no logra descifrar satisfactoriamente los términos. Referente a la pregunta si los chilenos residentes en Suecia leen el periódico La Cuarta (Internet), descubrimos que el grupo que lee el diario, decodifica</p><p>el léxico más satisfactoriamente que el que no lo hace.</p>
APA, Harvard, Vancouver, ISO, and other styles
11

Martins, Daniel Raposo. "La letra como signo de identidad visual corporativa." Doctoral thesis, Universidade Técnica de Lisboa, Faculdade de Arquitectura, 2012. http://hdl.handle.net/10400.5/17758.

Full text
Abstract:
Dissertação para obtenção do grau de Doutor em Design, apresentada na Faculdade de Arquitectura da Universidade Técnica de Lisboa.<br>Atendiendo a las premisas del Diseño de Comunicación, el diseñador es el mediador indirecto del mensaje corporativo. El diseñador se ocupa del proyecto de Identidad Visual Corporativa, seleccionando y manipulando los códigos intersubjetivos que permitan la correcta decodificación en determinado contexto. El proyecto de Identidad Visual Corporativa se refiere a un sistema de signos gráficos integrados que ganan un nuevo sentido semántico conjunto. Desde la perspectiva del Diseño, la tipografía corporativa es un signo de identidad, que influye en la materialización del posicionamiento grafico-semántico del proyecto de Identidad Visual Corporativa. Pero no existen datos sobre la capacidad gráfica de la letra en influir sobre la definición de la Imagen Corporativa. Esta Tesis pretende comprender el proceso de codificación y decodificación de los signos tipográficos en el ámbito de los proyectos de Identidad Visual Corporativa y de identificar sus connotaciones de base. Para ello, el designio de los diseñadores es confrontado con la percepción pública, con el fin de obtener datos sobre significados denotativos y connotativos creados por la tipografía corporativa y su influencia en la definición de la Imagen Corporativa. Definido en función de una hipótesis, el proceso metodológico ha comprendido una fase de Investigación No Intervencionista y otra Intervencionista. La Investigación No Intervencionista, se basó en Estudio de Casos, en un cuestionario destinado a un público general que excluye diseñadores, estudiantes de diseño o publicistas, intentando identificar las connotaciones de base y secundarias de los logotipos, y posteriormente evaluar las tipografías corporativas usadas en los logotipos, sin interferencia del nombre de marca. La Investigación Activa ha consistido en el experimento por la práctica de principios y conceptos examinados en la literatura especializada. Los datos obtenidos han permitido comprender mejor el proceso de codificación y decodificación gráfica, así como proponer un método de soporte al diseño y evaluación de los proyectos de Identidad Visual Corporativa.<br>ABSTRACT: Following the premises of Communication Design, the designer is the indirect mediator of the corporate message. The designer concerns about the Corporate Visual Identity project, selecting and manipulating the inter-subjective codes required for the proper decoding in a given context. The Corporate Visual Identity project refers to a system of integrated graphic signs that gain a new semantic meaning when drawn together. From Design's perspective, Corporate Typography is a sign of identity which influences the embodiment of the graphic-semantic positioning in the Corporate Visual Identity project, but there is no data on the graphic capabilities of the letter in influencing the definition of Corporate Image. This Thesis aims to understand the process of encoding and decoding typographic signs in the area of Corporate Visual Identity projects and to identify its base connotations. To achieve this, the intent of the designers is confronted with public perception, in order to obtain data on denotative and connotative meanings created by the corporate typography and the way they influence the definition of Corporate Image. Defined according to one hypothesis, the methodological process included two phases, a Non-Interventionist Research and an Interventionist Research. The Noninterventionist Research was based on Case Studies, through a questionnaire for a general audience which excluded designers, design students or advertisers, trying to identify the base and secondary connotations of logos, and then evaluate the corporate typography used in the logos, without any interference from the name of the brand. The Active Research has consisted in experiencing by practising principles and concepts examined in specialized literature. The obtained data has allowed to better understand the process of graphic encoding and decoding, as well as a proposal for a Design support method and evaluation of Corporate Visual Identity projects.<br>N/A
APA, Harvard, Vancouver, ISO, and other styles
12

Romero, Arandia Iñigo. "Reading out neural populations: shared variability, global fluctuations and information processing." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404684.

Full text
Abstract:
Entendre l'origen i la funció de l'activitat de poblacions neuronals, i com aquesta activitat es relaciona amb els estímuls sensorials, les decisions o les accions motores és un gran repte per les neurociències. En aquest treball hem analitzat l'activitat de desenes de neurones enregistrades a l'escorça visual primària de micos mentre se'ls presentaven escletxes sinusoïdals en diferents orientacions. Hem trobat que les fluctuacions globals de la xarxa mesurades mitjançant l'activitat de la població modulen la selectivitat de les neurones de forma multiplicativa i additiva. A més, l'activitat de la població també afecta la informació present en grups petits de neurones, depenent de la modulació que ha provocat a la selectivitat d'aquestes. La informació de la població sencera, però, no canvia amb aquestes fluctuacions. A la segona part hem desenvolupat un mètode per mesurar 'correlacions diferencials' amb dades limitades. En aplicar-ho a les dades experimentals hem aconseguit la primera estimació preliminar de la grandària d'aquestes correlacions que limiten la informació. Els nostres resultats contribueixen a l'avenç en la comprensió de la codi ficació d'informació en poblacions neuronals, i alhora generen noves preguntes sobre com aquestes processen i transmeten informació.<br>Entender el origen y la función de la actividad de poblaciones neuronales, y cómo esta actividad se relaciona con los estímulos sensoriales, las decisiones o las acciones motoras es un gran desafio en neurociencia. En este trabajo hemos analizado la actividad de decenas de neuronas registradas en la corteza visual primaria de monos mientras rejillas sinusoidales en diferentes orientaciones eran presentadas. Hemos encontrado que las fluctuaciones globales de la red medidas mediante la actividad de la población modulan la selectividad de las neuronas de manera multiplicativa y aditiva. Además, la actividad de la población también afecta a la información presente en grupos pequeños de neuronas, dependiendo de la modulación que ha provocado en la selectividad de estas neuronas. La información en la población completa, sin embargo, no varía con estas fluctuaciones. En la segunda parte hemos desarrollado un método para medir 'correlaciones diferenciales' con datos limitados. Al aplicarlo a los datos experimentales hemos obtenido la primera estimación preliminar del tamaño de estas correlaciones que limitan la información. Nuestros resultados contribuyen al avance del entendimiento sobre la codi ficación de la información en poblaciones neuronales, y al mismo tiempo generan más preguntas sobre cómo éstas procesan y transmiten información.<br>Understanding the sources and the role of the spiking activity of neural populations, and how this activity is related to sensory stimuli, decisions or motor actions is a crucial challenge in neuroscience. In this work, we analyzed the spiking activity of tens of neurons recorded in the primary visual cortex of macaque monkeys while drifting sinusoidal gratings were presented in di erent orientations. We found that global uctuations of the network measured by the population activity a ect the tuning of individual neurons both multiplicatively and additively. Population activity also has an impact in the information of small ensembles, which depends on the kind of modulation that the tuning of those neurons undergoes. Interestingly, the total information of the network is not altered by these uctuations. In the second part, we developed a method to measure 'di erential correlations' from limited amount of data, and obtained the rst, although preliminary, estimate in experimental data. Our results have important implications for information coding, and they open new questions about the way information is processed and transmitted by the spiking activity of neural populations.
APA, Harvard, Vancouver, ISO, and other styles
13

Cengarle, Giulio. "3D audio technologies : applications to sound capture, post-production and listener perception." Doctoral thesis, Universitat Pompeu Fabra, 2012. http://hdl.handle.net/10803/101415.

Full text
Abstract:
La llegada del sonido 3D está imponiendo cambios en varias etapas del flujo de trabajo, desde los sistemas de captación hasta las metodologías de postproducción y las configuraciones de altavoces. Esta tesis trata varios aspectos relacionados con el audio 3D: en la parte de captación, presentamos un estudio sobre las características de los micrófonos tetraédricos y una solución para obtener las componentes Ambisonics del segundo orden usando un pequeño número de transductores del primer orden; en la parte de producción, se presenta una aplicación para la mezcla automatizada de eventos deportivos, para reducir la complexidad del multicanal en tiempo real; para la restitución del audio independiente del sistema de altavoces, en el que los niveles de salida a los altavoces son una incógnita hasta la decodificación, se propone un detector de clipping independiente del layout. Finalmente, se presentan test psico-acústicos para validar aspectos perceptivos relacionados con el audio 3D.<br>The advent of 3D audio is dictating changes in several stages of the audio work-flow, from recording systems and microphone configurations, to post-production methodologies and loudspeaker configurations. This thesis tackles aspects related to 3D audio arising in the various stages of production. In the recording part, we present a study on the accuracy of tetrahedral microphones and a solution for obtaining second-order Ambisonics responses from first-order transducers using a small number of sensors; in the production stage, we introduce an application for automated assisted mixing of sport events, to reduce the complexity of managing multiple audio channels in real time; a clipping detector is proposed for the rendering of layout-independent audio content to generic playback systems, where the signal levels sent to the speakers are unknown until the decoding stage; finally, psychoacoustic experiments are presented for the validation of perceptual and aesthetic aspects related to 3D audio.
APA, Harvard, Vancouver, ISO, and other styles
14

Nogueira, Mañas Ramon. "Decision-making as an encoding-decoding process and its correlation with neuronal activity and behaviour." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/456320.

Full text
Abstract:
Un dels objectius més importants de la neurociència teòrica és determinar quins són els principis fonamentals subjacents en el processament de la informació al cervell i en última instància caracteritzar el nexe entre l’activitat neuronal i el comportament. Tot i que s’han produït avenços importants en aquesta direcció, encara estem lluny de poder proporcionar respostes clares i robustes a aquesta pregunta. En aquesta tesi presentaré un conjunt de resultats que han estat analitzats des del paradigma de codificació-decodificació en la presa de decisions, una part fonamental de la cognició. En particular, presentaré un conjunt de resultats electrofisiològics, comportamentals i matemàtics que han estat utilitzats per a estudiar la codificació d’informació a l’escorça de micos conductuals i en la integració de l’evidència prèvia amb la sensorial en rates realitzant una tasca perceptual de presa de decisions acoblada a la seva resposta.<br>Uno de los objetivos más importantes de la neurociencia teórica es determinar cuáles son los principios fundamentales subyacentes en el procesamiento de la información en el cerebro y en última instancia caracterizar el nexo entre la actividad neuronal y el comportamiento. Aunque se han producido importantes avances en esta dirección, aún estamos lejos de poder proporcionar respuestas claras y robustas para esta pregunta. En esta tesis voy a presentar un conjunto de resultados que han sido analizados desde el paradigma de codificación-decodificación en la toma de decisiones, una parte fundamental de la cognición. En particular, voy a presentar un conjunto de resultados electrofisiológicos, comportamentales y matemáticos que han sido usados para estudiar la codificación de información en la corteza de monos conductuales y en la integración de la evidencia previa con la sensorial en ratas realizando una tarea perceptual de toma de decisiones acoplada a su respuesta.<br>One of the most important goals in theoretical neuroscience is to determine what are the fundamental principles underlying the processing of information in the brain and ultimately characterize the link between neuronal activity and behavior. Even though many important steps have been done in this direction, we are still far from providing a clear and robust answer to this question. In this thesis I will present a set of results that will be analyzed under the encoding-decoding framework in decision-making, a fundamental part of cognition. In particular, I will present a set of electrophysiological, behavioral and mathematical results that have been used to study the encoding of information on the cortex of behaving monkeys and the integration of sensory with prior evidence on rats performing an outcome-coupled perceptual decision-making task.
APA, Harvard, Vancouver, ISO, and other styles
15

Scaini, Davide. "Wavelet-based spatial audio framework : from ambisonics to wavelets: a novel approach to spatial audio." Doctoral thesis, Universitat Pompeu Fabra, 2019. http://hdl.handle.net/10803/668214.

Full text
Abstract:
Ambisonics is a complete theory for spatial audio whose building blocks are the spherical harmonics. Some of the drawbacks of low order Ambisonics, like poor source directivity and small sweet-spot, are directly related to the properties of spherical harmonics. In this thesis we illustrate a novel spatial audio framework similar in spirit to Ambisonics that replaces the spherical harmonics by an alternative set of functions with compact support: the spherical wavelets. We develop a complete audio chain from encoding to decoding, using discrete spherical wavelets built on a multiresolution mesh. We show how the wavelet family and the decoding matrices to loudspeakers can be generated via numerical optimization. In particular, we present a decoding algorithm optimizing acoustic and psychoacoustic parameters that can generate decoding matrices to irregular layouts for both Ambisonics and the new wavelet format. This audio workflow is directly compared with Ambisonics.<br>Ambisonics és una teoria completa d’àudio espacial construïda a partir dels harmònics esfèrics. Alguns dels inconvenients d'Ambisonics de baix ordre, com ara una localització pobra i una àrea petita d’escolta òptima, estan directament relacionats amb les propietats dels harmònics esfèrics. En aquesta tesi presentem un nou formalisme d’àudio espacial basat en Ambisonics substituint però els harmònics esfèrics per les ondetes esfèriques. Desenvolupem una cadena d’àudio completa, des de la codificació fins a la descodificació, a través de l'ús de ondetes discretes construïdes en una malla de multirresolució. Mostrem com es pot generar la família de ondetes i les matrius de descodificació a altaveus mitjançant una optimització numèrica. Presentem un algorisme de descodificació que pot generar matrius de descodificació a conjunts irregulars d'altaveus tant per a Ambisonics com per al nou format basat en ondetes. Finalment, comparem aquest nou formalisme d’àudio amb Ambisonics.
APA, Harvard, Vancouver, ISO, and other styles
16

Castrillón, Mario Alejandro. "Control de Errores en Sistemas de Comunicaciones Digitales de Alta Velocidad." Doctoral thesis, 2017. http://hdl.handle.net/11086/6106.

Full text
Abstract:
Tesis (DCI)--FCEFN-UNC, 2017<br>En los últimos 10 años, la industria de las comunicaciones ópticas ha migrado hacia esquemas de receptores coherentes utilizando conversores de señal analógica a digital (ADC, del inglés Analog-to-Digital Converter) de alta velocidad. Esto ha permitido la incorporación de códigos correctores de errores con decodificación por decisiones blandas con el objetivo de extender el alcance y la eficiencia espectral de los enlaces disponibles. Los códigos correctores de errores con decodificación por decisiones blandas tales como los turbo códigos y los de chequeo de paridad de baja densidad (LDPC, del inglés Low Density Parity Check), y en especial estos últimos, se han expandido por las más diversas áreas y constituyen en la actualidad el estándar en varias normas, tales como 10GBase-T, DVB-S2, y Mobile WiMax (802.16e). Sin embargo, en comunicaciones ópticas generalmente se los trata como algo ajeno al sistema y por lo tanto en la mayoría de la bibliografía relacionada no se han tenido en cuenta todos los efectos residuales del canal a la entrada del decodificador para evaluar su desempeño. En cambio se utiliza como métrica solo la tasa de error umbral a partir de la cual el esquema de corrección de errores empieza a corregir. Por tal motivo en la presente Tesis se aborda el tema de códigos correctores de errores con decodificación por decisiones blandas aplicados a comunicaciones ópticas coherentes con un enfoque integral. En el presente trabajo se proponen diferentes técnicas para hacer lo más efectivas posibles las transmisiones empleando códigos correctores de errores de gran ganancia frente a problemas específicos de comunicaciones ópticas como son el ruido de fase del láser, las fluctuaciones de frecuencia del láser y las no linealidades de la fibra. Se trabaja también con constelaciones multinivel tales como 16-QAM que permiten obtener una buena eficiencia espectral. Con el fin de abarcar el mayor espacio de soluciones posible, se proponen cuatro esquemas diferentes pero complementarios teniendo en cuenta las condiciones expuestas previamente. Por un lado, se propone el empleo de modulación diferencial debido a su robustez frente a variaciones en la fase y se propone una técnica para disminuir su penalidad. Por otro lado, para esquemas no diferenciales se plantea un algoritmo de compensación de desplazamientos de fase, los cuales son un fenómeno catastrófico presente en los esquemas de estimación de fase utilizados en comunicaciones ópticas. Otra de las propuestas consiste en la utilización de constelaciones híbridas intercaladas temporalmente con el propósito de generar una referencia de fase absoluta que permita evitar el problema de los desplazamientos de fase. Por último, se propone un esquema conjunto de detección y decodificación iterativo que permite realizar la estimación del ruido de fase y las fluctuaciones de frecuencia de manera conjunta con la decodificación demostrando gran robustez. También se presenta en esta Tesis una posible arquitectura de implementación del esquema conjunto iterativo que permite reducir la complejidad del mismo, incorporando una novedosa clase de códigos LDPC denominados espacialmente acoplados. Debido a su estructura estos códigos permiten disminuir la latencia de decodificación y mantener la complejidad del decodificador acotada. Resultados de simulación demuestran la eficacia del sistema propuesto
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography