Dissertations / Theses on the topic 'Procesamiento de imágenes - Técnicas digitales'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Procesamiento de imágenes - Técnicas digitales.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Godoy, Campbell Matías Maximiliano. "Algunos resultados teóricos y numéricos en procesamiento de imágenes digitales." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113404.
Full textEl objetivo principal del presente trabajo es el estudio, tanto teórico como numérico, de métodos de procesamiento de imágenes orientados al área de las señales e imágenes con texturas. Se comienza con una revisión de conceptos básicos tanto en procesamiento de imágenes, como en herramientas matemáticas de interés, se exploran trabajos previos que motivan buena parte de esta memoria. En particular los trabajos de filtros no locales, formulados por Buades en 2005 y los funcionales no locales del tipo Mumford-Shah, formulados por Jung et al. en 2011, además de varios trabajos clásicos del área del cálculo de variaciones ligados al procesamiento de imágenes. Más adelante, se explora en detalle el problema de segmentación, estableciendo una definición concreta y ejemplos de aplicación, presentando luego el funcional de Mumford-Shah. Se analiza la limitación de este funcional desde el punto de vista numérico para realizar segmentación y por esto se introduce el funcional de Ambrosio-Tortorelli, donde destacan sus resultados más importantes, en particular la $\Gamma$-convergencia al funcional de Mumford-Shah relajado. Como desarrollo central, se trabajó el problema de segmentación no local, considerando el funcional planteando por Jung et al. en 2011. Se prueba que en el caso unidimensional el funcional no es adecuado en el sentido del Gamma-límite obtenido, el cual no penaliza el conjunto de discontinuidades de la señal u. A partir de esto, se propone un funcional modificado que, bajo ciertas suposiciones sobre la función de peso no local w(x,y), permite obtener un término que es equivalente como semi-norma a la semi-norma de Slobodeckij, lo que implica que el funcional quede definido en el espacio H^s\times H^1, donde H^s es el espacio de Sobolev fraccionario con s en (1/2,1). Se prueba rigurosamente la Gamma-convergencia a un funcional que se puede interpretar como el funcional de Mumford-Shah relajado con gradiente no local. Este resultado es relevante porque en este caso el Gamma-límite sí penaliza el conjunto de discontinuidades de la señal u, que es el comportamiento deseado para estos funcionales. A continuación, se exponen las llamadas funciones de Gabor generalizadas, para ser utilizadas en la aproximación de una señal, utilizándose como ejemplo las splines exponenciales (complejas), que corresponden a funciones trigonométricas con soporte compacto, permitiendo aproximar una señal en diferentes niveles de resolución. Finalmente, se presenta la implementación numérica de los modelos considerados, partiendo por filtros no locales, modelos de segmentación local y no local, y concluyendo con la aproximación por splines exponenciales. Se exponen simulaciones numéricas que permiten comparar diversos métodos además de explorar las ventajas y limitaciones de cada método en particular, concluyendo que existe evidencia de que estos métodos efectivamente permiten mejorar el análisis de señales e imágenes que contienen texturas.
Sapunar, Opazo Raúl Ignacio. "Diseño e implementación de un espectrómetro de alta resolución basado en FPGA para análisis de señales radioastronómico." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/132975.
Full textUn espectrómetro de alta resolución se usa en radioastronomía para observar espectros de nubes moleculares de dinámica compleja con un amplio rango de velocidades. Dicho instrumento corresponde a un tipo de Back End, el cual es el último componente electrónico de la cadena en un radiotelescopio y está encargado de procesar la señal proveniente de las fuentes astronómicas para obtener la información deseada. El estado del arte en esta materia consiste en utilizar técnicas digitales para procesar los datos, debido a la estabilidad de las mediciones y buen rendimiento que estas permiten. En este trabajo se presenta el diseño e implementación de un espectrómetro digital de transformada de Fourier rápida (FFT), de alta resolución espectral, utilizando una plataforma ROACH 2, la cual está basada en un chip FPGA (Field Programmable Gate Array) y está equipada con ADCs (Analog-to-digital coverters) de alta velocidad. Como metodología de diseño, se propone maximizar el uso de recursos del hardware para obtener el mayor número de canales espectrales posibles para un ancho de banda no menor a 1,5 GHz, manteniendo un alto rango dinámico. Para lograr el correcto funcionamiento del espectrómetro a altas velocidades se aplicaron técnicas de localización física de recursos (floorplanning) en el FPGA. Se presenta también una metodología de calibración de los ADCs, los cuales poseen cuatro núcleos que en conjunto muestrean a una tasa máxima de 5 GSps. El mejor desempeño se obtuvo con un espectrómetro de 1,8 GHz y 32768 canales, es decir con una resolución espectral de 54,9 kHz. Éste posee un rango dinámico libre de espurios (SFDR) superior a 42 dB en toda la banda con caídas a 39 dB en frecuencias puntuales. El aumento de resolución espectral se ve limitado principalmente por problemas de sincronización (timing) en el circuito y por la cantidad de memoria disponible. Como trabajo futuro se propone explorar distintas técnicas para optimizar el uso de recursos del FPGA y así aumentar aún más la resolución espectral del espectrómetro. Ejemplos de estas técnicas son modificaciones de diseño que permitan el uso eficiente de memorias y la reducción de operaciones matemáticas necesarias. También se presenta un cambio mayor en el diseño del espectrómetro, el cual implementa una forma distinta para calcular la FFT y permitiría reducir enormemente el número de memorias utilizadas por esta, logrando llegar a 1 millón de canales espectrales.
Segura, del Río César Whesly. "Propuesta de técnica para la estimación de densidad mamaria en mamografías digitales utilizando técnicas de segmentación y estimadores globales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5672.
Full textTesis
Velasco, Juan Valentín. "Determinación del RUN-UP por oleaje en laboratorio de taludes de presas mediante procesamiento de imágenes." Bachelor's thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2016. http://hdl.handle.net/11086/4603.
Full textTrata la técnica utilizada para la determinación del valor Run-Up por oleaje a través del procesamiento de imágenes, se explica el procedimiento realizado para validar dicha técnica y se adjuntan los resultados obtenidos junto con sus errores
Mora, Aguirre Miguel Alejandro. "Utilización de Imágenes Digitales para el Mejoramiento de la Productividad de Operaciones de Construcción." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103434.
Full textSmith, Albornoz Felipe Eduardo. "Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocular." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136244.
Full textLa biometría corresponde al estudio de medidas en base a diferentes características humanas, tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados. Este trabajo de título propone como objetivo estudiar la fusión de información entre dos sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión. Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual, fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta. Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
Contreras, Schneider Daniel Alfonso. "Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpados." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112303.
Full textEl reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto. La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas. El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada. Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
Ticona, Huaroto Javier Eduardo. "Análisis de características de forma del bacilo de koch para detección automática de tuberculosis en imágenes digitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9242.
Full textTesis
Bustamante, Alvarez Rafael. "Diseño de un algoritmo para la automatización del conteo de células del tejido sanguíneo mediante procesamiento digital de imágenes." Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/10841.
Full textTesis
Sumoso, Vicuña Ernie Ludwick. "Técnicas de representación y reconstrucción de objetos 3D en el computador: una revisión de literatura." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/18274.
Full textTrabajo de investigación
Ayala, Charca Giancarlo. "Reconocedor óptico de caracteres de placas de automóviles empleando técnicas de procesamiento digital de imágenes." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2007. http://cybertesis.uni.edu.pe/uni/2007/ayala_cg/html/index-frames.html.
Full textAzama, Makishi Alan Yoshio, and Huanca Tomás Fernando Huamán. "Detector de eventos remotos basado en técnicas de procesamiento digital de video." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2013. http://hdl.handle.net/10757/273547.
Full textTesis
Concha, Ramírez Francisca Andrea. "FADRA: A CPU-GPU framework for astronomical data reduction and Analysis." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140769.
Full textEsta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad. El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado. Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas. En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU.
Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
Villazana, Astucuri Jordy Ivo. "Sistema de procesamiento y análisis de imágenes para la caracterización fenotípica del cultivo de la papa." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/11789.
Full textUniversidad Nacional Mayor de San Marcos (Lima). Vicerrectorado de Investigación y Posgrado
Tesis
Cáceres, Ramos Kevin Lee, and Felix Lendy Valerie Dongo. "Evaluación de los beneficios al aplicar BIM en una obra multifamiliar en Lima Metropolitana en el año 2018 - 2019." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/10842.
Full textTesis
Cadena, Moreano José Augusto. "Técnica eficiente para reconocimiento facial global utilizando wavelets y máquinas de vectores de soporte en imágenes 3D." Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/16552.
Full textChavez, Leon Sofia Alessandra, Acevedo Jahaira Julie Daga, Huaracha Luz Andrea Quichiz, and Clavo Melanie Nicole Trebejo. "Huaytita cortometraje animado desde la perspectiva de las áreas de gráfica, animación, edición y diseño sonoro." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/16062.
Full textThe animated short film Huaytita (2019) is based on the personal experience of Melanie, a member of the group, who from a very young age has received natural remedies from her grandmother. That is why for the realization of this project we propose a main objective and a secondary objective. The main objective is to develop through this animation this grandmother-granddaughter-natural medicine relationship and reflect this in the areas of Graphics, Animation, Editing and Sound. While, the secondary objective is to achieve an audiovisual product enriched by image and sound, regardless of the use of dialogue. To achieve these objectives, we plan the necessary adjustments for the use of Adobe programs to be used for Graphics, Editing and Animation area. Subsequently, based on the script we started to work on the expression sheets and color palette for the character design; also, we worked on the design and color for the backgrounds from the Graphic area. At the same time, we handle the necessary adjustments for the music next to the composer as well as the sound design for each scene considering the environment and objects necessary for the realization of the foley from the Sound area. Once the drawing files have been digitized, we put each frame together to create a continuous movement (traditional animation). Also, we opted for the use of digital animation in the case of magic and other complex movements from the Animation area. Finally, we put together all the files managing the rhythm and time needed for each scene since the Edition. As a result, a short animated fiction was obtained that shows natural medicine not only as an alternative to cure diseases but also as a family bond and inheritance.
Trabajo de investigación
Liberona, Henríquez Gianfranco. "Aplicaciones del procesamiento de imágenes digitales a astronomía." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/133571.
Full textEn la presente memoria se abordan a fondo los problemas de la interferometría y la síntesis de Fourier, tanto en términos teóricos como en términos prácticos, en el contexto de las aplicaciones de estas herramientas en ciencias como la astronomía, a través de proyectos como ALMA \emph(Atacama Large Milimeter Array), SKA \emph{(Square Kilometre Array)} y VLA \emph{(Very Large Array)}, que basan su funcionamiento en la radioastronomía, rama de la ciencia que utiliza la interferometría como herramienta clave de sus estudios. Todo esto se fundamenta principalmente en el Teorema de Van Cittert - Zernike, proposición que indica lo siguiente: \emph{Si se denomina $V$ a la función de visibilidades de un frente de ondas, $I$ a su intensidad y $A$ el área de recepción efectiva del instrumento utilizado para captar la señal, entonces} $$V(u,v) = \iint A(x,y) I(x,y) e^{-2\pi i(ux+vy)}\ dxdy.$$ En otras palabras, el teorema citado indica que salvo una constante correspondiente al instrumento utilizado, la función de visibilidades de una onda y su intensidad son un par transformada/antitransformada de Fourier. El problema de la síntesis de Fourier consiste en palabras simples al de la reconstrucción de la función de intensidad de una señal, a partir de información parcial de su función de visibilidad. Esta memoria aborda diferentes técnicas de resolución de este problema, que pese a ser un problema mal puesto, es posible regularizarlo para obtener soluciones aproximadas. El resultado principal de este trabajo consiste en la presentación e implementación numérica de una nueva propuesta de solución, utilizando un enfoque variacional, que busca reducir los cálculos y tiempos de computación de las técnicas utilizadas en la actualidad, tales como CLEAN (1974) y MEM (1985), además de estudiar el efecto que genera la regularización de esta solución en diferentes ámbitos que serán detallados cuando corresponda. Se presentan sus resultados y se realizan comparaciones entre distintas soluciones, dependientes de los parámetros modificados en cada ocasión. Se termina la presente memoria analizando los resultados numéricos obtenidos con diversas reconstrucciones de imágenes y se comenta posible trabajo futuro y temas aún pendientes al término de este trabajo, que pueden constituir un aporte importante al desarrollo actual de estas técnicas en astronomía y disciplinas afines como la imagenología médica, que utiliza técnicas similares a las aquí estudiadas para la obtención (por ejemplo) de resonancias magnéticas en los pacientes atendidos.
Oncevay, Marcos Félix Arturo. "Extracción de descriptores de color y textura en imágenes digitales de plantas para la identificación de especímenes botánicos." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7838.
Full textTesis
Grajeda, Marín Ismael Rufino. "Increase in the information payload for steganography in digital images." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2019. http://hdl.handle.net/20.500.11799/105009.
Full textSáenz, Valenzuela Diego. "Clasificación de garras de pollo mediante imágenes digitales." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143136.
Full textEn las plantas faenadoras de pollos se busca sacar el máximo provecho a cada animal, por lo que no solo se comercializan sus partes altas en carne como lo son la pechuga y el trutro, sino que también se venden partes como alas, interiores y patas. El presente trabajo trata de la categorización de patas, ya que no todas tienen el mismo precio, sino que se dividen en categorías dependiendo de su peso y cantidad de defectos, siendo las más grandes y sanas las mejor valoradas. Actualmente, la categorización de patas de pollo se hace de forma manual, lo cual puede estar sujeto a la subjetividad de cada operador, toma bastante tiempo y, a su vez, se refleja en el balance de las empresas como un alto costo fijo por mano de obra. Dado lo anterior, se vuelve muy interesante la automatización de procesos que permitan aumentar su eficiencia en la separación por categorías. En la industria del pollo, las patas del animal son conocidas como garras y sus categorías son llamadas calibres, los que dependen del peso y cantidad de defectos de cada garra. En este trabajo de título se proponen y comparan distintas metodologías para definir el calibre de una garra a partir de dos imágenes, mostrando su parte superior e inferior. Debido a la complejidad del problema, solo se consideran garras sin fracturas o raspaduras, limitando la clasificación a garras con defectos reconocibles por su color como lo son las cutículas, callos y hematomas. Tras probar distintos métodos para clasificar las garras según sus calibres, se llega a uno que consiste en una cuantificación de defectos utilizada como entrada para un clasificador en base a rangos, el cual, con un 97.4% de exactitud, demostró ser el mejor método para definir el calibre. La cuantificación mencionada consiste en utilizar una cascada de clasificadores binarios, con las intensidades RGB de los pixeles como entrada, identificando aquellos que muestran cutícula, callo, hematoma o garra sana, para finalmente obtener la cuantificación con la suma de pixeles de cada defecto. Como conclusión se puede decir que, a pesar de las limitaciones impuestas para el desarrollo de la metodología propuesta, se han logrado los objetivos planteados en forma satisfactoria, logrando obtener un método de clasificación de garras, escalable a la industria faenadora de pollos.
Baca, Berrío Warren. "Diseño de sistema de cálculo de tiempo de exposición aplicado a un sistema de adquisición de imágenes multiespectrales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5310.
Full textTesis
Ascarza, Mendoza Franco Javier. "Segmentación automática de textos, mediante redes neuronales convolucionales en imágenes documentos históricos." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13050.
Full textTesis
Reátegui, Woll Jaime Cesar. "Estimación automática de la varianza y discriminación de distribuciones de ruido en imágenes digitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4537.
Full textTesis
Pérez, Reátegui Daniel Ernesto. "Programación del algoritmo POCS para mejorar la resolución de imágenes de campos de cultivo." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6449.
Full textTesis
Meza, Zurita Fernando Javier. "Diseño e implementación de un algoritmo para el registro de imágenes aéreas ortorectificadas aplicado en la supervisión agrícola." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6143.
Full textTesis
Ramirez, Franco Tania Gabriela, and Quispe Ila Ibañez. "Adaptación de los algoritmos SIFT y LSH para la diferenciación de archivos de imágenes." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7036.
Full textTesis
Belda, García Ana María. "Técnicas de interpolación weno y su aplicación al procesamiento de imágenes." Doctoral thesis, Universitat de València, 2010. http://hdl.handle.net/10803/39090.
Full textA common problem in approximation theory is to reconstruct a function from a discrete set of data which gives information on the function itself. This information will usually come in the form of point-values or cell-averages of the function, which is then approximated by an interpolant, that is, another function whose values at a given set of points or cell-averages are equal to those of the original one. This interpolant can be built through linear interpolation, but in this case the accuracy of the approximation in the presence of a singularity is limited by the order of the singularity, so that any stencil crossing it will result in a poor approximation. In order to improve the accuracy of the approximation we need to choose stencils that avoid crossing singularities, whenever this is possible. That is the idea behind the ENO (essentially non-oscillatory) technique, introduced by Harten et al. WENO (weighted ENO) was introduced by Liu et al. as an improvement upon ENO. The idea is to assign to each subinterval all the stencils containing it, and construct the interpolating polynomial as a linear convex combination of the corresponding polynomials. In this way we use all the information provided by the nodes contained in the candidate stencils in the ENO selection process, and this should give a higher order of accuracy in smooth regions of the function. The key point is the assignment of weights to the convex combination. In this work we have incorporated WENO to Harten's multiresolution framework, and adapted it to the context of cell-averages and point-values. Moreover, for point-values we propose a modification in the definition of the weights, producing a higher order of accuracy in the presence of singularities. We also compare the WENO technique with other interpolation techniques through numerical experimentation.
Rojas, Gómez Renán Alfredo. "Automatic regularization parameter selection for the total variation mixed noise image restoration framework." Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4461.
Full textTesis
Cisneros, Velarde Pedro Arturo. "Detección y seguimiento de manos en videos digitales utilizando computadores y mini-computadores." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5298.
Full textTesis
Barrientos, De La Cruz Andersson Bill, and Tako Jenny Higa. "Técnicas matemáticas para mejorar la visualización de imágenes DICOM." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1282.
Full textAranguren, Zapata Alejandro, and Asin Tiffany Vela. "Sistema de seguimiento de objetos mediante procesamiento digital de imágenes aplicado al control de robots autónomos." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2012. http://hdl.handle.net/10757/305116.
Full textTesis
Valenzuela, León César Fernando. "Estudio de técnicas de compresión de imágenes astronómicas." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/115464.
Full textEsta tesis presenta un estudio acerca de la compresión, con pérdidas, de imágenes astronómicas mediante el estándar JPEG2000. La principal motivación de esta investigación surge al comparar los desempeños de compresión para diversas morfologías de imágenes, se observa que para una misma tasa de bits, el nivel de PSNR de las imágenes naturales es mayor que el de las imágenes astronómicas, es decir la compresión de dichas imágenes presenta menos pérdidas. Debido a esto, es necesario realizar ajustes sobre JPEG2000 de manera que ambos desempeños puedan equipararse. El primer enfoque utilizado se basa en la implementación de la wavelet Haar, aquella de mayor compresibilidad sobre imágenes astronómicas, en JPEG2000. Sin embargo, al realizar esta modificación se aprecia que los resultados obtenidos no son mejores a los que proporciona la versión original del estándar, con la base CDF 9/7. A partir del análisis de dependencias intraescala en el dominio Wavelet, se logra verificar que la característica que tiene mayor repercusión en el desempeño de la compresión es la presencia de estructura. Razón que explica el por qué la base CDF 9/7, a pesar de no presentar mejor compresibilidad que la base de Haar, permite alcanzar mejores niveles de compresión. Finalmente, se propone dividir las imágenes astronómicas en dos partes: "Background" y "Cartoon", esta última contiene los pixeles de mayor intensidad y al ser una señal sparse, es decir con muy pocos coeficientes distintos a cero, su alto nivel compresibilidad en base de Haar (reconstrucción perfecta con aproximadamente un 20% de coeficientes) permite soslayar la carencia de estructura. La compresión del "Cartoon"', mediante JPEG2000 con la base de Haar, entrega resultados superiores a los obtenidos por la base CDF 9/7, por lo que se puede concluir que este enfoque puede ser aprovechado en aplicaciones que puedan prescindir de la totalidad de los pixeles y que hagan énfasis en aquellos valores más significativos. La investigación presentada en esta memoria complementa los resultados encontrados en la literatura y abre una nueva línea que deberá seguir siendo explorada en el futuro.
Maldonado, Cadenillas Rodrigo Ricardo. "Modelo convolucional para la detección de nódulos pulmonares a partir de tomografías 3D." Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14254.
Full textTesis
Torres, Gárate Gabriela. "Caracterización de un ecógrafo de investigación para aplicaciones en sonoelastografía." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6193.
Full textTesis
Quesada, Pacora Jorge Gerardo. "Separable dictionary learning for convolutional sparse coding via split updates." Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14209.
Full textTesis
Aguilar, Lara Pedro Alexis, and Gonzales Jhon Jobany Tueros. "Detección de defectos en telas poliéster utilizando técnicas de procesamiento de imágenes." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1290.
Full textMelgarejo, Román Lucía Alejandra. "Registro automático de imágenes digitales de campos de cultivo aplicada a la agricultura de precisión con vehículos aéreos no tripulados." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8145.
Full textTesis
Tafur, Tafur José Elvis. "Sistema en tiempo real de detección y seguimiento de objetos esféricos en videos digitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6642.
Full textTesis
Khlebnikov, Núñez Sofía. "Caracterización de textura en imágenes digitales de hojas de plantas mediante dimensión fractal multiescala." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/11892.
Full textTesis
Villavicencio, Paz Arantxa. "Formación de imágenes para detección de cáncer de mama empleando tecnología microondas." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13542.
Full textTesis
Brown, Manrique Kevin. "Caracterización y clasificación automática de ríos en imágenes satelitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8806.
Full textTesis
Inafuku, Yoshida Alberto Hiroshi. "Diseño de un algoritmo de estabilizacion de video orientado a la detección de personas." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6036.
Full textTesis
Tupac, Yupanqui Fernández Roberto Heinz. "Rectificación geométrica de imágenes mediante el empleo de transformaciones proyectivas y un sistema de medición inercial." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5406.
Full textTesis
Badillo, Durán Natalia. "Diseño de un sistema mecatrónico de laboratorio para pruebas de hidrofobicidad utilizando procesamiento digital de imágenes." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13165.
Full textTesis
Paredes, Zevallos Daniel Leoncio. "Multi-scale image inpainting with label selection based on local statistics." Master's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5578.
Full textTesis
Díaz, Rojas Kristians Edgardo. "Desarrollo y comparación de diversos mapas de probabilidades en 3D del cáncer de próstata a partir de imágenes de histología." Master's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5008.
Full textTesis
Vilchez, Lagos Neils Edison. "Diseño e implementación de un dispositivo de adquisición de imágenes para el PUCP-SAT1." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7108.
Full textTesis
Bastías, Grunwald Diego. "Estudio de la representación 3D de regiones del iris a partir de imágenes digitales bidimensionales." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143611.
Full textActualmente se utilizan diversos métodos de reconocimiento de individuos mediante la biometría, es decir, identificando patrones de características físicas o de comportamiento. Específicamente la biometría basada en el iris es ampliamente usada en el mundo, por ejemplo en reconocimiento de ciudadanos o control fronterizo. Sin embargo, hoy en día se utilizan imágenes bidimensionales del iris para extraer la información de éste. En este trabajo se propone utilizar información tridimensional del iris, para lo que se construirá un modelo 3D a partir de un conjunto de imágenes bidimensionales del ojo. En primer lugar, se realizó la construcción de un sistema de captura de imágenes bidimensionales del ojo desde diferentes ángulos, utilizando como hardware del sistema un computador, un computador de placa reducida Raspberry Pi y una cámara Raspberry Pi NoIR. Además, se diseñó e implementó una estructura de soporte que permite la toma de imágenes desde diferentes ángulos, con una iluminación y encuadre adecuados para enfocar el iris a corta distancia. El montaje experimental permitió además eliminar el reflejo de las fuentes luminosas sobre el iris. Luego se tomaron 17 imágenes de un ojo, abarcando un arco de encuadre de 40°. A continuación se procesaron las imágenes capturadas para permitir la generación de modelos 3D. Se incluyó en el procesamiento: encuadre del iris, borrado de la pupila, ecualización del histograma y suavizado gaussiano. Fue posible determinar que la mejor secuencia para la construcción del modelo 3D incluyó encuadre, suavizado gaussiano, borrado de pupila y ecualización. Finalmente, se construyeron los modelos tridimensionales utilizando el software Python Photogrametry Toolbox. Con el objetivo de mejorar los resultados se variaron parámetros de entrada del algoritmo, tales como, el número de imágenes y el CCD width (ancho del sensor de la cámara). De lo que se concluyó que con 6 imágenes y un CCD width igual a 3, se obtiene un modelo del iris bien formado en el que se aprecian texturas y patrones. Por otra parte, se analizó la capacidad de generalización del método, capturando y modelando 12 nuevos conjuntos de imágenes del iris. Concluyendo que el método funciona de forma parcial con conjuntos de imágenes nuevos, y por tanto debe ser mejorado en términos de su capacidad de generalización. En base a la revisión bibliográfica se concluye que este es el primer sistema desarrollado que permite generar un modelo 3D del iris a partir de imágenes 2D de este. Los modelos resultantes pueden ser mejorados, ya que presentan ruido y este podría ser eliminado mediante la aplicación de un filtro gaussiano tridimensional, la utilización de un equipo fotográfico de mejores características, o el uso de múltiples cámaras.
Velásquez, Rodríguez José Luis. "Diseño de un algoritmo para el análisis de carreteras basado en procesamiento de imágenes." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2009. http://tesis.pucp.edu.pe/repositorio/handle/123456789/724.
Full textTesis