Auswahl der wissenschaftlichen Literatur zum Thema „Compactación y compresión de datos“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Compactación y compresión de datos" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Compactación y compresión de datos"

1

Ojeda Farías, Omar Farid, Miguel Ángel Baltazar Zamora und José Manuel Mendoza Rangel. „Influencia de la inclusión de ceniza de bagazo de caña de azúcar sobre la compactación, CBR y resistencia a la compresión simple de un material granular tipo subrasante“. Revista ALCONPAT 8, Nr. 2 (30.04.2018): 194–208. http://dx.doi.org/10.21041/ra.v8i2.282.

Der volle Inhalt der Quelle
Annotation:
El objetivo del presente trabajo fue estudiar la influencia de la ceniza de bagazo de caña de azúcar (CBCA) como sustituto parcial del Cemento Portland Compuesto (CPC) para mejorar las propiedades de un suelo granular arenoso. Se llevaron a cabo ensayos de compactación AASHTO estándar, resistencia a la compresión simple y CBR, comparándose el comportamiento del suelo natural en estudio y mezclado con porcentajes de 3%, 5% y 7% de cemento portland como porcentajes de control, realizándose sustituciones parciales del mismo por CBCA en porcentajes de 0%, 25%, 50% y 100% con respecto al peso del suelo en estado seco. Los resultados mostraron mejoras en el suelo en las características de compactación, resistencia a la compresión y CBR, reduciéndose hasta un 25% el consumo del CPC.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Aristizábal, Angela. „Codificación lineal predictiva en compresión de voz“. ÁNFORA 4, Nr. 7 (13.02.2018): 91–94. http://dx.doi.org/10.30854/anf.v4.n7.1996.405.

Der volle Inhalt der Quelle
Annotation:
El modelo de codificación lineal predtcttva (LPC) además de ser utilizado en sítesis de voz. es empleado en procesos de compresión de voz, posibilitando optimizar la transmisión de datos. A continuación se presenta un breve análisis de la aplicación de este modelo en compresión de datos.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Gómez Ortiz, María del Pilar, und Eduardo Vázquez Dompinguez. „Audio Digital (Características)“. TEPEXI Boletín Científico de la Escuela Superior Tepeji del Río 6, Nr. 12 (14.05.2019): 96–98. http://dx.doi.org/10.29057/estr.v6i12.4088.

Der volle Inhalt der Quelle
Annotation:
Hoy en día la producción, desarrollo e intercambio de audios es algo muy cotidiano, es por ello que se han creado un sin número de formatos o contenedores, algunos de los cuales no solo agrupan datos de audio, sino de audio y video, por otro lado, no todos los audios se pueden escuchar usando el mismo reproductor. Considerando este uso constante de formatos de audio, presentamos un mapa mental a través del cual destacamos las propiedades del códe (algoritmo que codifica y decodifica datos), asociado a los distintos formatos, entre las características que se estarán destacando se encuentran los formatos que gravan sin compresión de datos, los que realizan una compresión sin pérdida de datos y aquellos que realizan una compresión con perdida de datos, características que son importantes de conocer ya que en función de saber las peculiaridades de cada formato podemos determinar cuál es el más conveniente de acuerdo a las características que queremos de nuestro audios.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Sánchez Cotte, Edgar Humberto, Gleidys María Torres Chueco und Rodrigo Elías Esquivel Ramírez. „Desempeño de un material granular estabilizado con cemento cuando se aplica carga a compresión“. Tecnura 23, Nr. 60 (01.04.2019): 59–71. http://dx.doi.org/10.14483/22487638.14640.

Der volle Inhalt der Quelle
Annotation:
Contexto: Esta investigación evalúa la resistencia a la compresión de un material granular mezclado compuesto por arcilla y arena, con el objetivo de optimizar su diseño. Métodología: Los factores estudiados fueron el contenido de cemento, la humedad, los golpes de compactación y la relación arcilla/arena. Además, se realizó un diseño experimental inical de 24. Resultados: Los resultados permitieron identificar que el factor significativo es el contenido de cemento. Por otro lado, se exploró para la optimización un diseño de un solo factor con tres niveles (175; 200; y 225 Kg/m3) y dos réplicas. Conclusiones: El diseño experimental permitió identificar el valor óptimo del factor contenido de cemento en la frontera de la región de experimentación seleccionada (150 Kg/m3).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Borges, Pedro Hurtado de Mendoza, Hélio Garcia Leite, Haroldo Carlos Fernándes, Frederico Cássio Moreira Martins und Zaíra Morais dos Santos Hurtado de Mendoza. „DESCRIPCIÓN ANALÍTICA DE LA RESISTENCIA DEL SUELO A LA PENETRACIÓN“. REVISTA ENGENHARIA NA AGRICULTURA - REVENG 21, Nr. 1 (01.03.2013): 39–51. http://dx.doi.org/10.13083/reveng.v21i1.325.

Der volle Inhalt der Quelle
Annotation:
Apesar de no existir un criterio uniforme para evaluar la compactación del terreno, la mayoría de los autores recomiendan la resistencia del suelo a la penetración como principal indicativo. En este trabajo se formularon modelos estadísticos para expresar la referida resistencia, en función de la profundidad y del contenido de agua en el suelo, con base en datos experimentales. El suelo fue clasificado como ferralítico amarillo, sometido a la siembra directa durante los últimos cinco años con los cultivos de maíz y frijol. Se utilizó el penetrometro electrónico PNT 2000. Los datos fueron coleccionados para tres contenidos de agua en el suelo (aproximadamente 20, 32 y 40%) y la profundidad varió entre 0 y 0,60 m. En el procesamiento de los datos fueron utilizados los programas computacionales STATISTICA 8.0 y CurveExpert 1.4. Los modelos más apropiados se seleccionaron de acuerdo con el coeficiente de determinación, los desvíos entre valores observados y estimados y la magnitud de los residuos. Se concluyó que la resistencia del suelo a la penetración puede ser descrita analíticamente usándose modelos no lineares y que estos pueden ser una útil herramienta para inferir sobre la compactación del suelo, en función del contenido de agua.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Sánchez-Salazar, José, und Edward Aymerich-Sánchez. „Compresión BZIP2 optimizada usando colas libres de bloqueo“. Uniciencia 31, Nr. 2 (29.07.2017): 37. http://dx.doi.org/10.15359/ru.31-2.3.

Der volle Inhalt der Quelle
Annotation:
Debido a que la tendencia actual es tener más y más procesadores (cores) disponibles en cada computadora, la escalabilidad de las estructuras de datos usadas en programación paralela debe ser considerada cuidadosamente, para así garantizar que ellas saquen ventaja de los procesadores disponibles. Debido al aumento en la contención, usualmente las estructuras de datos basadas en bloqueos no mejoran su rendimiento proporcionalmente al incrementar el número de procesadores. El uso de estructuras de datos libres de bloqueos bien diseñadas, tales como las colas first in-first out, puede mejorar el rendimiento de un programa paralelo, cuando hay varios procesadores disponibles. En este trabajo se diseña e implementa una versión paralela de bzip2, un programa para compresión y descompresión de datos muy popular, usando colas libres de bloqueos en lugar de las basadas en bloqueos, y aplicando una estrategia de dos buffers de salida. Se compara el rendimiento de la implementación libre de bloqueos contra implementaciones basadas en bloqueos. Se midió el tiempo de compresión usando diferente número de procesadores y diferentes tamaños de bloques. Coincidiendo con la hipótesis de trabajo, los resultados muestran que la implementación paralela libre de bloqueos supera las otras implementaciones.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Serrano, Carlos Herminio, María Pía Cruz und Italo Federico Martin-Schmädke. „Aplicación de compactación dinámica para estructuras de gran impronta en Córdoba, Argentina“. Revista Facultad de Ingeniería 29, Nr. 54 (16.06.2020): e10861. http://dx.doi.org/10.19053/01211129.v29.n54.2020.10861.

Der volle Inhalt der Quelle
Annotation:
El método de compactación dinámica, muy poco difundido en Argentina, no ha sido utilizado en la ciudad de Córdoba hasta esta ocasión. Su aplicación en la “Planta de Tratamiento de Líquidos Cloacales Bajo Grande” ha constituido un gran logro técnico y ecónomico. Este artículo sintetiza estudios geotécnicos previos al mejoramiento, caracteriza la compactación dinámica a partir del perfil de suelos existente y requisitos de obras de gran impronta como sedimentadores y tanques de aireación. Se mencionan aspectos de control de obra durante su ejecución, datos de estudios de suelos posteriores al mejoramiento, parámetros del modelo matemático empleado para efectuar la prognosis de asientos de acuerdo al perfil de suelos evaluado y mediciones de validación de asientos con los sedimentadores en funcionamiento. La compactación se llevó a cabo dejando caer una masa de 10000 kg en caída libre a 15 m de altura desde una grúa, sobre puntos distanciados aproximadamente a 2.8 m entre sí. Se ejecutaron dos fases de varias caídas permitiendo un aumento de la densidad relativa del suelo original hasta un máximo de 70%, reduciendo los asentamientos verticales 10%, disminuyendo la distorsión angular a la mitad, duplicando la capacidad portante y alcanzando una profundidad máxima de mejoramiento próxima a 6 m. Luego se realizó por requisito de proyecto una fase de nivelación de terreno con compactación mecánica. Pudo concluirse que la fundación de la obra con plateas de hormigón armado sobre el suelo mejorado, presentó una factibilidad técnica-económica muy superior respecto a la alternativa de una fundación profunda con pilotes, lo que justificó la ejecución de la compactación dinámica en esta obra.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

González, Marcos Amaris, Víctor Eduardo Martinez Abaunza und Pablo Emilio Guillén Rondón. „Medidas de similaridad de información basadas en compresión de datos“. Comunicaciones en Estadística 5, Nr. 2 (01.02.2013): 169. http://dx.doi.org/10.15332/s2027-3355.2012.0002.04.

Der volle Inhalt der Quelle
Annotation:
En este artÍculo se presenta una fundamentacion teórica de las principales medidas de similaridad basadas en compresión de datos, estas técnicas surgieron en la última década y han presentado gran utilidad en diversos campos de las ciencias, implementación de técnicas de agrupamiento u otras máquinas de aprendizaje pueden hacer una clasificación entre objetos.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Rezende de Carvalho, Magali, und Beatriz Guitton Renaud Bautista De Oliveira. „Terapia compressiva para o tratamento de úlceras venosas: uma revisão sistemática da literatura“. Enfermería Global 16, Nr. 1 (28.12.2016): 574. http://dx.doi.org/10.6018/eglobal.16.1.237141.

Der volle Inhalt der Quelle
Annotation:
Objetivo: Identificar artículos indexados que tienen que ver con el uso de la terapia de compresión elástica o inelástica como propuesta terapéutica para los pacientes con úlceras venosas. <br /><br />Métodos: Revisión sistemática de búsqueda bibliográfica en las bases de datos electrónicas Medline / Pubmed; Medline y Journals @ Ovid / Ovidio; CINAHL; Lilas y Cochrane, las estrategias de búsqueda utilizan los siguientes descriptores y palabras clave: leg ulcer; varicose ulcer; bandage; “stockings, compression”; venous ulceration; venous ulcer; compressive therapy; compression therapy; stocking. <br /><br />Resultados: La búsqueda arrojó 25 artículos. El uso del vendaje con compresión fue más eficaz que el vendaje sin compresión. Los vendajes multicapa contribuyen a la curación de las úlceras venosas. El uso de medias de compresión y la cirugía correctora del flujo sanguíneo están asociados con la prevención de la recurrencia de las úlceras. <br /><br />Conclusión: El tratamiento de las úlceras venosas utilizando algún tipo de compresión fue eficaz en el proceso de curación.<br /><br />
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Dávalos Sotelo, Raymundo, und Guadalupe M. Bárcenas Pazos. „Clasificación de las propiedades mecánicas de las maderas mexicanas en condición “verde”“. Madera y Bosques 4, Nr. 1 (05.09.2016): 65–70. http://dx.doi.org/10.21829/myb.1998.411368.

Der volle Inhalt der Quelle
Annotation:
Se creó un sistema de clasificación para las maderas mexicanas libres de defectos en condición verde, tomando como fuente una base de datos creada recientemente. El criterio de clasificación empleado es la densidad relativa. Las propiedades mecánicas consideradas fueron: flexión estática, compresión paralela a la fibra, compresión perpendicular a la fibra, dureza Janka y cortante paralelo a la fibra. Este sistema permite agrupar las maderas en cinco grupos: muy alto, alto, mediano, bajo y muy bajo, mediante una regresión potencial.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Mehr Quellen

Dissertationen zum Thema "Compactación y compresión de datos"

1

Tomás, Horna Chris Dennis, und Saona Christian Alexis Huertas. „Implementacion de un codificador/decodificador wavelet para la compresión de imágenes sobre un FPGA“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2005. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1083.

Der volle Inhalt der Quelle
Annotation:
En los últimos años, los esquemas de compresión de imágenes basados en la transformada de Wavelet han ido remplazando a los esquemas clásicos basados en la transformada de Fourier, ya que son más eficientes y ofrecen una mayor posibilidad de análisis debido a su naturaleza multiresolución[1]. La compresión de imágenes actualmente juega un papel muy importante en el desarrollo de equipos portátiles o de telecomunicaciones, ya que estos buscan almacenar grandes volúmenes de información en el menor espacio posible o transmitir información a altas velocidades. Por lo tanto, esto implica migrar de la solución software originalmente concebida, hacia su implementación en procesadores de aplicación específica (hardware), la cual ofrece una mayor flexibilidad y la posibilidad de procesar los datos en tiempo real. Este trabajo presenta la implementación de una versión optimizada del algoritmo de codificación/decodificación SPIHT (Set Partitioning In Hierarchical Trees) sobre un arreglo de puertas programables por campo (FPGA), para lograr una reducción considerable del tiempo de procesamiento. Para ello, se propone una metodología de diseño digital Top-Down capaz de adaptar el estado del arte de un algoritmo específico a su equivalente en hardware programable. Los resultados de las pruebas experimentales demuestran que el diseño alcanza un reducido tiempo de procesamiento, logrando codificar una imagen transformada al dominio Wavelet de 256x256 píxeles en 50 milisegundos y realizar la decodificación de las misma en menos de un milisegundo. Además posee un bajo consumo de recursos, ocupando un 27% del FPGA Stratix EP1S25F1020C5 de Altera para dicha configuración. El sistema esta configurado para comunicarse con una interfaz de usuario visual para la transferencia de imágenes y visualización de resultados por la PC a través del Bus PCI.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

VACA, GARCÍA VÍCTOR MANUEL. „COMPACTACIÓN DEL SUELO DEBIDO AL TRÁNSITO DE MAQUINARIA AGRÍCOLA. RESPUESTA DE UN Vertisol A PRUEBAS DE COMPRESIÓN UNIAXIAL EN TRES SISTEMAS DE LABRANZA“. Tesis de doctorado, Universidad Autónoma del Estado de México, 2014. http://hdl.handle.net/20.500.11799/58871.

Der volle Inhalt der Quelle
Annotation:
El comportamiento a corto plazo de las propiedades físicas de un Vertisol, bajo sistemas de labranza tradicional y de conservación, en la zona de producción de maíz (Zea mays L.) del Valle Toluca-Atlacomulco, aún no ha sido reportado. Adicionalmente, se considera que se requieren de mediciones de laboratorio adicionales que puedan imitar las condiciones de campo, y que resulten sensibles, confiables y apropiadas para monitorear cambios en la compactación y otras propiedades físicas del suelo mientras se reduce el muestreo destructivo en campo. Esta investigación se planteó como objetivos: utilizar las pruebas de compresión uniaxial, resistencia a la penetración y fuerza de corte en una máquina universal de prueba, para evaluar la respuesta de un Vertisol en términos de dureza, cohesividad y adhesividad cuando es compactado por tránsito rodado en tres sistemas de labranza: tradicional (LT), mínima (LM) y cero (LC) y; evaluar el efecto de los sistemas de labranza sobre la compactación de un Vertisol y el rendimiento de maíz. El estado de la compactación se caracterizó mediante la medición de la densidad aparente, resistencia a la penetración, mediante el índice de cono, y, velocidad media de infiltración del agua en cada ciclo de cultivo del periodo de estudio. Los ensayos en la máquina universal de prueba resultaron suficientemente sensibles para detectar diferencias en las propiedades físicas del suelo de los diferentes sistemas de labranza. Los mayores valores de rendimiento fueron obtenidos en LM. El análisis de las distintas variables no permitió determinar, en el corto plazo, tendencias claras en el incremento o remediación de los parámetros de compactación del Vertisol bajo los diversos sistemas de labranza.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Sologuren, Gutiérrez Felipe Leopoldo. „Combinado Indexación y Compresión en Texto Semi-Estructurado“. Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103488.

Der volle Inhalt der Quelle
Annotation:
El almacenamiento digital de la información debe abordar tanto el problema de la incorporación de datos al sistema como su recuperación, y debe hacer un catálogo acorde con las consultas que sobre ellos quiera hacerse. El espacio ocupado para el almacenamiento y el tiempo necesario para ingresar la información, y para recuperala, depende directamente de la estructura utilizada en el repositorio. De este modo, cuando nos referimos a información que ya cuenta cion un grado de estructuración, la indexación debe ser coherente con la estructuta formal de la misma, para favorecer así la consulta. En el presente estudio se aborda el problema de la compresión estática de información semi-estructurada combinada con una indezación tendiente a soportar uin conjunto de consultas sobre los datos, con un fuerte énfasis en el almacenamiento en memoria secundaria. El ámbito de desarrollo de la aplicación propuesta se enmarca dentro de la documentación XML y su lenguaje de consulta XQuery. El modelo utilizado en la implementación está basado en la propuestas desarrolladas por Baeza-Yates y Navarro en Proximal Nodes. La implementación corresponde a un desarrollo posterior de un procesador destinado a soportar consultas en el lenguaje XPath desarrollado por Manuel Ortega como memoria de Ingeniería. El desarrollo de la capa de almacenamiento del prototipo actual se enfoca en la resolución de problemas en tres áreas: recuperación del archivo fuente, consulta eficiente sobre la estructura del documento, y búsqueda de texto en lenguaje natural. Las estructuras diseñadas adhieren a técnicas recientes en el área de la compresión y de recuperación de la información en XML. El resultado de esta memoria es un autoíndice XML con gran desempeño en colecciones de tamaño pequeño y mediano, con capacidad de abordar colecciones de gran tamaño con resucesos limitados de memoria principal, y con un gran potencial de adaptación para colecciones en un nuevo contexto dinámico. El prototipo presenta un desempeño altamente competitivo con las alternativas existentes en el estado del arte.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Salvador, Jaime. „Optimización y Procesamiento Inteligente de Grandes Volúmenes de Datos Categóricos“. Doctoral thesis, Universidad de Alicante, 2019. http://hdl.handle.net/10045/95548.

Der volle Inhalt der Quelle
Annotation:
El algoritmo de clasificación kNN (k-nearest neighbors) es uno de los métodos de clasificación no paramétrico más utilizados, sin embargo, está limitado debido al consumo de memoria relacionado con el tamaño del conjunto de datos, lo que hace poco práctica su aplicación a grandes volúmenes de datos. La investigación descrita en esta tesis fue motivada por la necesidad de una representación óptima de datos categóricos que puedan ser fácilmente incorporados en los algoritmos de aprendizaje automático que permiten un análisis y explotación inteligente de grandes volúmenes de datos. En esta tesis se propone el uso de un esquema de compresión a nivel de bits para comprimir el conjunto de datos de entrenamiento (training dataset) antes de entrenar un modelo de aprendizaje automático. Para utilizar el conjunto de datos, se propuso una descompresión en tiempo real que permite el uso del conjunto de datos sin necesidad de una descompresión completa. Para facilitar la incorporación del método de compresión propuesto en los frameworks de aprendizaje automático existentes, el método propuesto está alineado con el estándar Basic Linear Algebra Subprograms - BLAS de nivel 1 que define los bloques de construcción básicos en forma de funciones algebraicas. En particular, en esta tesis se propone el uso del algoritmo kNN para trabajar con datos categóricos comprimidos. El método propuesto permite mantener los datos comprimidos en memoria, con lo que se reduce drásticamente el consumo de memoria.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Navarrete, Javier. „Contribuciones al suavizado de color, compresión y registro de nubes de puntos 3D“. Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/58725.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Yarasca, Carranza Juan Eduardo. „Compresión de imágenes utilizando clustering bajo el enfoque de colonia de hormigas“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/13888.

Der volle Inhalt der Quelle
Annotation:
En la actualidad con el continuo avance de la tecnología informática se han generado diversos entornos de trabajo en la mayoría de campos de la vida cotidiana como ingeniería, medicina, educación, arquitectura, administración, entretenimiento, etc. en donde se hace uso de una gran cantidad de contenido audiovisual, lo cual ha generado un aumento desmesurado en el almacenamiento y transmisión digital de dichos contenidos. En el siguiente trabajo de investigación se presenta una solución para el problema del alto costo de almacenamiento digital de las imágenes. Esta solución está basada en la aplicación de un método de compresión muy utilizado en el procesamiento de imágenes: el clustering o agrupamiento, en donde se hace uso del algoritmo de colonia de hormigas, con la finalidad de reducir el tamaño de la paleta de colores utilizada para representar una imagen; y con ello reducir el tamaño de almacenamiento de la imagen sin que ello afecte la visualización de la misma por parte de la persona. Los resultados obtenidos después de realizar diversas pruebas con el algoritmo de colonia de hormigas diseñado en esta investigación fueron que el tamaño de las imágenes se redujo en un 66.41% con respecto a su peso inicial y además la percepción visual de las imágenes generadas no fue afectada drásticamente.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Robles, Bokun Jorge Luis. „Contribución en las metodologías matemáticas para mejorar la compresión de video bajo el estándar H.264 AVC“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2020. https://hdl.handle.net/20.500.12672/12709.

Der volle Inhalt der Quelle
Annotation:
En los últimos años el avance tecnológico, en lo que se refiere a la transmisión de video en alta definición con gran resolución, viene en auge, pero mostrando una baja calidad de video en una serie de cuadros por segundo utilizando más ancho de banda y a la vez menos frecuencia de transmisión. Esto quiere decir mayor pérdida de información por dato enviado, y otorgando prioridad a los objetos en movimiento e imágenes en 3D pero olvidando la calidad y fidelidad de la misma. Esta necesidad motivó el desarrollo de esta investigación para encontrar una solución equitativa y progresiva a la baja calidad de video, pero basado en el análisis de los estándares que dieron origen a la compresión. Pues este estudio conlleva a realizar un tratamiento de las principales técnicas de procesamiento de información dentro de los estándares de compresión MPEG-4 y H.264, con una investigación exhaustiva utilizando gráficas, diagramas y esquemas que justifiquen los resultados obtenidos, así como también simulaciones del rendimiento mediante el manejo de un software de computación científica.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Ferrada, Escobar Héctor Ricardo. „Índices comprimidos para la recuperación de documentos“. Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140860.

Der volle Inhalt der Quelle
Annotation:
Doctor en Ciencias, Mención Computación
Document Retrieval (DR) aims at efficiently retrieving the documents from a collection that are relevant to user queries. A challenging variant arises when the documents are arbitrary strings and the collection is large. This scenario arises in DNA or protein sequence collections, software repositories, multimedia sequences, East Asian languages, and others. Several DR compressed data structures have been developed to face this challenge, offering different space/time complexities. However, in practice the proposals with the best time performance require too much extra space. This thesis innovates in three aspects: (1) we build on Lempel-Ziv 1978 (LZ78) compres- sion, instead of suffix arrays, to build DR indices; (2) we build on Lempel-Ziv 1977 (LZ77) compression to handle highly repetitive collections; (3) we start the study of approximate answers in this DR scenario, which is common in DR on natural language texts. In this aspect, our main contribution is a new approach to DR based on LZ78 data compression, offering structures to solve the two most fundamental problems in the DR field: Document Listing (DL) and Top-k Retrieval. Our novel indices offer a competitive space/time tradeoff for both situations. Besides, our proposals are also capable of retrieving approximate answers, saving a lot of space and/or time compared with any structure that returns the full answer for any of these problems. Our second main contribution is the design of a structure for indexing highly repetitive text collections that solves the DL problem, which is built on the LZ77 parsing. This is the first attempt to solve DR problems using LZ77 data compression, which is the best compression scheme for such collections. On the other hand, we improve on basic data structures used, among others, in DR. We present an alternative design to the best theoretical Range Minimum Queries solution, maintaining its good complexities in space usage and query time. We obtain a simpler formula that leads to the fastest and most compact practical implementation to date. We also implemented various promising theoretical proposals for compressed suffix ar- rays, for which no previous implementations existed. Finally, we design and implement a compressed text index for highly repetitive collections that solves pattern matching, which is based on the LZ77 compression, and which is the basis for our LZ77-based DR index.
Document Retrieval (DR) apunta a la recuperación eficiente de documentos relevantes de una colección, para las consultas del usuario. Una variante que surge como desafío es cuando los documentos provienen de una gran colección de textos arbitrarios. Este escenario ocurre con colecciones de secuencias de ADN o proteínas, repositorios de software, secuencias multimedia e idiomas del Lejano Oriente, entre otros entornos. Varias estructuras de datos comprimidas para DR han sido desarrolladas a fin de hacer frente a este desafío, ofreciendo diferentes complejidades en tiempo/espacio. Sin embargo, en la práctica las propuestas con el mejor rendimiento en tiempo, requieren a su vez de demasiado espacio extra. Esta tesis innova tres aspectos: (1) construímos índices para DR en base a la compresión Lempel-Ziv 1978 (LZ78) en lugar de arreglos de sufíjos; (2) manipulamos colecciones altamente repetitivas en base a la compresión Lempel-Ziv 1977 (LZ77); (3) comenzamos a estudiar cómo entregar respuestas aproximadas en dicho escenario de DR, lo cual es una práctica común en textos de lenguaje natural. Nuestra principal contribución es un nuevo enfoque para DR basado en la compresión de datos LZ78, ofreciendo estructuras que resuelven los dos problemas fundamentales del campo de DR: Document Listing (DL) y Top-k Retrieval. Nuestros nuevos índices ofrecen desempeño competitivo en tiempo/espacio en ambos casos. Además nuestras propuestas también entregan respuestas aproximadas, ahorrando considerable espacio y/o tiempo comparado con cualquier otra estructura que entregue una respuesta completa a alguno de estos problemas. También diseñamos una estructura que indexa colecciones de texto altamente repetitivo y resuelve el problema de DL, basada en la compresión LZ77. Este el primer intento dirigido a resolver un problema de DR utilizando compresión de datos LZ77, que además es el mejor esquema de compresión para dichas colecciones. Por otro lado, realizamos mejoras sobre estructuras de datos básicas utilizadas en DR. Presentamos un diseño alternativo a la mejor solución teórica para Range Minimum Queries, manteniendo sus buenas complejidades en términos de espacio utilizado y tiempo de consulta. Logramos una fórmula más sencilla obteniendo como resultado la implementación más rápida y compacta conocida hasta hoy. Además implementamos varias propuestas teóricas promisorias para el arreglo de sufijos, de las cuales no existen implementaciones previas. Finalmente, diseñamos e implementamos un índice de texto comprimido para colecciones altamente repetitivas que resuelve el pattern matching, el cual se basa en la compresión LZ77, y que además es la base para nuestro índice sobre el LZ77 para DR.
This work has been partially funded by Conicyt Ph.D Scholarship Chile; Fondecyt Grant 1-140976; Millennium Nucleus for Information and Coordination in Networks, and Basal Center for Biotechnology and Bioengineering
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Arroyo, García Hernán Enrique. „Búsqueda en Texto Mediante un Índice Comprimido de Q-Gramas“. Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103854.

Der volle Inhalt der Quelle
Annotation:
No autorizado por el autor para ser publicada a texto completo
La cantidad de datos disponibles crece de forma dramática cada día. Esto trae consigo la necesidad de poder manejar éstos datos de forma adecuada, de manera de poder acceder a estos de forma eficiente y al mismo tiempo ahorrar espacio de almacenamiento. En particular, para manejar grandes cantidades de texto una herramienta clave son los índices de texto, y en el contexto de este trabajo los índices comprimidos, los cuales no sólo responden consultas de forma rápida sino que también almacenan sus datos y el texto en forma eficiente. El objetivo general del presente trabajo fue desarrollar un índice comprimido basado en listas de ocurrencias de los q-gramas del texto y comprimir este último. Se desea comparar la eficacia de este índice con los auto-índices ya desarrollados en el sitio Pizza&Chili (http://pizzachili.dcc.uchile.cl). Un índice invertido de q-gramas permite encontrar patrones en un texto. Para tal efecto las consultas se dividen en dos etapas. En la primera etapa se seleccionan las regiones del texto (llamadas bloques) donde ocurren todos los q-gramas del patrón y por lo tanto éste podría encontrarse. En la segunda etapa se verifica si efectivamente el patrón se encuentra en los bloques que fueron seleccionados. Además es necesario almacenar el texto de forma independiente. En la implementación realizada se mantiene el texto dividido en bloques comprimidos, los cuales se almacenan en memoria secundaria. Esto permite utilizar menos espacio y acceder a los bloques individualmente. Se implementaron diversos algoritmos para comprimir el índice y realizar consultas. Además se diseñaron y ejecutaron experimentos para medir el rendimiento de las distintas variantes obtenidas al combinar los diferentes algoritmos. En base a los resultados obtenidos se seleccionaron los algoritmos que presentaron mejor rendimiento tanto en velocidad como en niveles de compresión alcanzados. De la misma forma se implementaron y midieron experimentalmente alternativas para comprimir y buscar en el texto. Finalmente se comparó el rendimiento de las variantes seleccionadas del índice frente a los índices competitivos presentes en el sitio Pizza&Chili. Los resultados indican que el índice tiene un rendimiento competitivo para búsquedas de patrones pequeños.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Providel, Godoy Eliana Paz. „Soluciones eficientes para Rank y Select en secuencias binarias“. Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112506.

Der volle Inhalt der Quelle
Annotation:
Magíster en Ciencias, Mención Computación
Las estructuras de datos compactas ofrecen funcionalidad y acceso a los datos usando poco espacio. En una estructura de datos plana se conservan los datos en su forma original y se busca minimizar el espacio extra usado para proveer la funcionalidad, mientras que en una estructura comprimida además se recodifican los datos para comprimirlos. En esta tesis se estudian estructuras de datos compactas para secuencias de bits (bitmaps) que proveen las operaciones rank y select: rankb(B,i) cuenta el número de bits b ∈ {0,1} en B[1..i] y selectb(B,i) retorna la posición de la i-ésima ocurrencia de b en B. En teoría ambas consultas se pueden responder en tiempo constante, pero la implementación práctica de estas soluciones no siempre es directa o con buenos resultados empíricos. Las estructuras de datos con un enfoque más práctico, usualmente no óptimas en teoría, pueden tener mejor desempeño que implementaciones directas de soluciones teóricamente óptimas. Esto es particularmente notorio para la operación select. Además, las implementaciones más eficientes para rank son deficientes para select, y viceversa. En esta tesis se definen nuevas estructuras de datos prácticas para mejorar el desempeño de las operaciones de rank y select, basadas en dos ideas principales. La primera consiste en, a diferencia de las técnicas actuales, que usan estructuras separadas para rank y select, reutilizar cada estructura también para acelerar la otra operación. La segunda idea es simular en tiempo de consulta una tabla de resultados precomputados en vez de almacenarla, lo que permite utilizar tablas universales mucho mayores que las que sería posible almacenar. Los resultados experimentales muestran que la primera idea, aplicada a estructuras planas, utiliza sólo 3% de espacio sobre el bitmap y ofrece tiempos similares a estructuras que usan mucho más espacio, para ambas operaciones. En estructuras de datos comprimidas se pueden combinar ambas ideas, obteniendo un espacio extra de menos de 7 % sobre el bitmap comprimido y manteniendo, para ambas operaciones, tiempos similares o mejores que las estructuras actuales (que usan 27 % de espacio extra).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Mehr Quellen

Bücher zum Thema "Compactación y compresión de datos"

1

COMPRESOR DE DATOS: Proyecto sobre estudio de la compresión de Datos. MADRID: WWW, 1995.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Compactación y compresión de datos"

1

Ballesteros, D. M., und A. E. Gaona. „Detección de actividad muscular en registros EMG superficiales en aplicaciones de compresión de datos“. In IV Latin American Congress on Biomedical Engineering 2007, Bioengineering Solutions for Latin America Health, 25–29. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-74471-9_7.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lucas, Sergio, Ander Arriandiaga, Eva Portillo, Asier Zubizarreta und Itziar Cabanes. „Compresión de datos de tipo real basada en un novedoso algoritmo de codificación para redes neuronales de impulsos“. In XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 175–82. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.175.

Der volle Inhalt der Quelle
Annotation:
En este trabajo se propone la compresión de datos de tipo real basada en un nuevo algoritmo de codificación para Redes Neuronales de Impulsos inspirado en la conocida modulación por ancho de pulso (PWM). Esta propuesta presenta una serie de ventajas como la simplicidad del algoritmo. Así, permite al usuario establecer el compromiso deseado entre calidad y consumo de recursos de memoria mediante la selección de un sencillo parámetro.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Compactación y compresión de datos"

1

Poveda Bautista, Elisa, Angel De la Rosa Velasco, Héctor Cifuentes Bulte und Gonzalo Ruiz López. „Dosificación de hormigón autocompactante reforzado con fibras de acero basado en el estudio de la reología de la pasta“. In HAC2018 - V Congreso Iberoamericano de Hormigón Autocompactable y Hormigones Especiales. Valencia: Universitat Politècnica València, 2018. http://dx.doi.org/10.4995/hac2018.2018.5645.

Der volle Inhalt der Quelle
Annotation:
Se presenta una metodología de diseño de hormigón autocompactante reforzado con fibras de acero (HACRFA) basada en la resistencia a compresión y en la viscosidad plástica efectiva buscadas para dicho hormigón. Además, se incorporan los valores de la fracción en volumen de fibra y esbeltez como datos necesarios para implementar el método. Se trata de un procedimiento sencillo y útil ya que mediante unas cartas de diseño se calculan las proporciones de los diferentes componentes del HACRFA. Su fundamento parte de la propuesta de diseño para hormigón autocompactante (HAC) desarrollada y validada experimentalmente por Abo Dhaheer et al. (Journal of Sustainable Cement-Based Materials 5(4): 199-216, 217-232, 2016), basada en los valores de resistencia a compresión y viscosidad plástica deseados, y se adapta para la incorporación de fibra de acero por medio de la ecuación obtenida por Ghanbari y Karihaloo (Cement and Concrete Research 39: 1209-1216, 2009), que aproxima con precisión el valor de la viscosidad plástica efectiva del HACRFA. A partir de modelos constitutivos micromecánicos se puede estimar el valor de la viscosidad plástica efectiva del HACRFA por medio de la viscosidad plástica de la pasta de cemento. Ésta se puede medir fácilmente utilizando instrumentos de bajo coste, como un viscosímetro capilar, aunque aquí la presentamos tabulada para diferentes tipologías de cemento, adiciones y relaciones agua-materiales cementíceos. Las ecuaciones implicadas en el procedimiento conducen a unas cartas de diseño de fácil interpretación y uso que permiten establecer las cantidades de componentes del hormigón. Estas cartas de diseño son específicas para cada resistencia a compresión objetivo. Además, esta metodología asume que la resistencia a compresión en un hormigón reforzado con fibras no cambia significativamente para cuantías bajas de fibra, lo cual es cierto, según el tipo de fibra, hasta aproximadamente un 1% en volumen.Finalmente, se aporta la validación experimental de esta metodología para HACRFA de diferentes resistencias, obteniendo unos valores de resistencia a compresión a 28 días y viscosidad semejantes a los predichos por el método.DOI: http://dx.doi.org/10.4995/HAC2018.2018.5645
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Garcia-Taengua, Emilio, und Benjamin Linden. „Un nuevo enfoque para optimizar dosificaciones de hormigón autocompactante“. In HAC2018 - V Congreso Iberoamericano de Hormigón Autocompactable y Hormigones Especiales. Valencia: Universitat Politècnica València, 2018. http://dx.doi.org/10.4995/hac2018.2018.5958.

Der volle Inhalt der Quelle
Annotation:
Todo procedimiento para diseñar hormigones autocompactantes comprende dos etapas: la aplicación de un método de dosificación, y el ajuste de la mezcla mediante amasadas de prueba. Ambas se centran en el comportamiento del hormigón en estado fresco, buscándose maximizar tres propiedades fundamentales: fluidez, capacidad de llenado, y estabilidad. Para su evaluación y control se pueden monitorizar multitud de parámetros obtenidos mediante distintos ensayos, pero raramente se recurre a más de dos o tres ensayos, que además varían de un caso a otro. Además, estos muestran un importante grado de correlación entre sí, y por tanto existe siempre cierto solape entre la información obtenida mediante cualesquiera dos ensayos. Este estudio propone formular matemáticamente el comportamiento en fresco del hormigón autocompactante como un fenómeno multivariado. Aunque sus tres propiedades fundamentales no son directamente medibles de forma independiente, se pueden obtener mediante transformación lineal a partir de las métricas que ofrece cada tipología de ensayo. Este nuevo enfoque posibilita una optimización más robusta de los hormigones autocompactantes. Con esta finalidad, se ha llevado a cabo un metanálisis de cerca de trescientas dosificaciones recogidas de distintas fuentes, abarcando: las propiedades de los materiales utilizados y sus cantidades relativas; los resultados de los ensayos de escurrimiento, embudo en V, anillo en J, caja en L, e índice visual de segregación; y la resistencia media a compresión simple. Se han estudiado las relaciones de codependencia entre los distintos parámetros medibles, y cómo estas relaciones se ven afectadas por cambios en la dosificación. Para ello se han aplicado las técnicas de reducción de información utilizadas en minería de datos y se han desarrollado modelos semiempíricos mediante regresión lineal múltiple. Las ecuaciones obtenidas se han utilizado para formular explícitamente el problema de optimización multiobjetivo para obtener altos niveles de autocompactabilidad a la vez que se minimiza el riesgo de segregación. Dicho problema se ha resuelto de forma gráfica en una serie de escenarios hipotéticos para ilustrar la aplicación de la nueva metodología desarrollada, que permite reducir el número de amasadas de prueba necesarias y por tanto conlleva un ahorro significativo en tiempo y recursos.DOI: http://dx.doi.org/10.4995/HAC2018.2018.5958
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie