To see the other types of publications on this topic, follow the link: Procesamiento de imágenes - Técnicas digitales.

Dissertations / Theses on the topic 'Procesamiento de imágenes - Técnicas digitales'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Procesamiento de imágenes - Técnicas digitales.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Godoy, Campbell Matías Maximiliano. "Algunos resultados teóricos y numéricos en procesamiento de imágenes digitales." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113404.

Full text
Abstract:
Ingeniero Civil Matemático
El objetivo principal del presente trabajo es el estudio, tanto teórico como numérico, de métodos de procesamiento de imágenes orientados al área de las señales e imágenes con texturas. Se comienza con una revisión de conceptos básicos tanto en procesamiento de imágenes, como en herramientas matemáticas de interés, se exploran trabajos previos que motivan buena parte de esta memoria. En particular los trabajos de filtros no locales, formulados por Buades en 2005 y los funcionales no locales del tipo Mumford-Shah, formulados por Jung et al. en 2011, además de varios trabajos clásicos del área del cálculo de variaciones ligados al procesamiento de imágenes. Más adelante, se explora en detalle el problema de segmentación, estableciendo una definición concreta y ejemplos de aplicación, presentando luego el funcional de Mumford-Shah. Se analiza la limitación de este funcional desde el punto de vista numérico para realizar segmentación y por esto se introduce el funcional de Ambrosio-Tortorelli, donde destacan sus resultados más importantes, en particular la $\Gamma$-convergencia al funcional de Mumford-Shah relajado. Como desarrollo central, se trabajó el problema de segmentación no local, considerando el funcional planteando por Jung et al. en 2011. Se prueba que en el caso unidimensional el funcional no es adecuado en el sentido del Gamma-límite obtenido, el cual no penaliza el conjunto de discontinuidades de la señal u. A partir de esto, se propone un funcional modificado que, bajo ciertas suposiciones sobre la función de peso no local w(x,y), permite obtener un término que es equivalente como semi-norma a la semi-norma de Slobodeckij, lo que implica que el funcional quede definido en el espacio H^s\times H^1, donde H^s es el espacio de Sobolev fraccionario con s en (1/2,1). Se prueba rigurosamente la Gamma-convergencia a un funcional que se puede interpretar como el funcional de Mumford-Shah relajado con gradiente no local. Este resultado es relevante porque en este caso el Gamma-límite sí penaliza el conjunto de discontinuidades de la señal u, que es el comportamiento deseado para estos funcionales. A continuación, se exponen las llamadas funciones de Gabor generalizadas, para ser utilizadas en la aproximación de una señal, utilizándose como ejemplo las splines exponenciales (complejas), que corresponden a funciones trigonométricas con soporte compacto, permitiendo aproximar una señal en diferentes niveles de resolución. Finalmente, se presenta la implementación numérica de los modelos considerados, partiendo por filtros no locales, modelos de segmentación local y no local, y concluyendo con la aproximación por splines exponenciales. Se exponen simulaciones numéricas que permiten comparar diversos métodos además de explorar las ventajas y limitaciones de cada método en particular, concluyendo que existe evidencia de que estos métodos efectivamente permiten mejorar el análisis de señales e imágenes que contienen texturas.
APA, Harvard, Vancouver, ISO, and other styles
2

Sapunar, Opazo Raúl Ignacio. "Diseño e implementación de un espectrómetro de alta resolución basado en FPGA para análisis de señales radioastronómico." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/132975.

Full text
Abstract:
Ingeniero Civil Eléctrico
Un espectrómetro de alta resolución se usa en radioastronomía para observar espectros de nubes moleculares de dinámica compleja con un amplio rango de velocidades. Dicho instrumento corresponde a un tipo de Back End, el cual es el último componente electrónico de la cadena en un radiotelescopio y está encargado de procesar la señal proveniente de las fuentes astronómicas para obtener la información deseada. El estado del arte en esta materia consiste en utilizar técnicas digitales para procesar los datos, debido a la estabilidad de las mediciones y buen rendimiento que estas permiten. En este trabajo se presenta el diseño e implementación de un espectrómetro digital de transformada de Fourier rápida (FFT), de alta resolución espectral, utilizando una plataforma ROACH 2, la cual está basada en un chip FPGA (Field Programmable Gate Array) y está equipada con ADCs (Analog-to-digital coverters) de alta velocidad. Como metodología de diseño, se propone maximizar el uso de recursos del hardware para obtener el mayor número de canales espectrales posibles para un ancho de banda no menor a 1,5 GHz, manteniendo un alto rango dinámico. Para lograr el correcto funcionamiento del espectrómetro a altas velocidades se aplicaron técnicas de localización física de recursos (floorplanning) en el FPGA. Se presenta también una metodología de calibración de los ADCs, los cuales poseen cuatro núcleos que en conjunto muestrean a una tasa máxima de 5 GSps. El mejor desempeño se obtuvo con un espectrómetro de 1,8 GHz y 32768 canales, es decir con una resolución espectral de 54,9 kHz. Éste posee un rango dinámico libre de espurios (SFDR) superior a 42 dB en toda la banda con caídas a 39 dB en frecuencias puntuales. El aumento de resolución espectral se ve limitado principalmente por problemas de sincronización (timing) en el circuito y por la cantidad de memoria disponible. Como trabajo futuro se propone explorar distintas técnicas para optimizar el uso de recursos del FPGA y así aumentar aún más la resolución espectral del espectrómetro. Ejemplos de estas técnicas son modificaciones de diseño que permitan el uso eficiente de memorias y la reducción de operaciones matemáticas necesarias. También se presenta un cambio mayor en el diseño del espectrómetro, el cual implementa una forma distinta para calcular la FFT y permitiría reducir enormemente el número de memorias utilizadas por esta, logrando llegar a 1 millón de canales espectrales.
APA, Harvard, Vancouver, ISO, and other styles
3

Segura, del Río César Whesly. "Propuesta de técnica para la estimación de densidad mamaria en mamografías digitales utilizando técnicas de segmentación y estimadores globales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5672.

Full text
Abstract:
Anualmente un millón y medio de nuevos casos de cáncer de mama son diagnosticados alrededor del mundo. Por tal motivo, se han establecido estrategias de despistaje temprano de cáncer de mama que utilicen a la mamografía como principal herramienta. Adicionalmente, se han evaluado diversas variables clínicas que han sido capaces de estimar el riesgo a desarrollar esta neoplasia. Entre estas variables se encuentra la densidad mamaria o tejido denso catalogado como principal indicador del cáncer de mama. La densidad mamaria o tejido denso de la mama incrementa de 3.5 a 5 veces el riesgo de adquirir cáncer de mama. La mamografía es una imagen formada a partir del principio de rayos X, describe a los tejidos de la mama y permite la evaluación del estado clínico de los pacientes. Se utilizan dos acercamientos para su estudio, estos consisten en el análisis cualitativo y cuantitativo. En el primero se utiliza el criterio de la observación del médico para dar su juicio de cada caso. En el segundo se procesan digitalmente mamografías y se les aplican técnicas de segmentación, luego se utilizan métodos cuantificables como estimadores globales. La segmentación consiste en subdividir una mamografía en los tejidos que la constituyen mientras que los estimadores globales son algoritmos que se aplican a la imagen completa y brindan indicadores cuantitativos de esta. El objetivo de la presente tesis es realizar una comparación entre el tejido denso obtenido mediante los técnicas de segmentación de Bden, bimodal, C-medias difusas y Otsu con el establecido por un patrón de oro (segmentación manual de experto). A partir de las comparaciones, se propondrá un algoritmo de segmentación validado en base a estimadores globales. Para alcanzar dicho objetivo, se cumplirán los siguientes objetivos específicos: implementación de técnicas de segmentación de Bden, bimodal, C-medias difusas y Otsu para calcular el tejido denso; implementación de estimadores globales intersección sobre unión, índice de similitud estructural (SSIM) y norma L2; comparación cuantitativa del tejido denso entre mamografías segmentadas y mamografías del patrón de oro; implementación de propuesta de técnica de segmentación y cálculo de tejido denso de la mama. Se ha encontrado que la propuesta de técnica de segmentación implementada para el cálculo de tejido denso es superior a las demás técnicas en base a estimadores globales. La técnica propuesta también demuestra un mayor grado de correlación con el tejido denso calculado por los médicos que las segmentaciónes de Bden, bimodal, C-medias difusas y Otsu. Se ha encontrado que en base a los estimadores globales de intersección sobre unión y SSIM la técnica de segmentación propuesta presenta mejores resultados que las técnicas implementadas de Bden, bimodal, C-medias difusas y Otsu. El coeficiente de Pearson es el mejor indicador del grado de correlación que existe entre los porcentajes de tejido denso calculado por los médicos y la técnica propuesta que con el calculado por las demás técnicas.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
4

Velasco, Juan Valentín. "Determinación del RUN-UP por oleaje en laboratorio de taludes de presas mediante procesamiento de imágenes." Bachelor's thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2016. http://hdl.handle.net/11086/4603.

Full text
Abstract:
Práctica Supervisada (IC)--FCEFN-UNC, 2016
Trata la técnica utilizada para la determinación del valor Run-Up por oleaje a través del procesamiento de imágenes, se explica el procedimiento realizado para validar dicha técnica y se adjuntan los resultados obtenidos junto con sus errores
APA, Harvard, Vancouver, ISO, and other styles
5

Mora, Aguirre Miguel Alejandro. "Utilización de Imágenes Digitales para el Mejoramiento de la Productividad de Operaciones de Construcción." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103434.

Full text
Abstract:
Diversos estudios demuestran que a nivel mundial la industria de la construcción presenta bajos niveles de productividad. A pesar de que la construcción es un sector considerado tradicionalmente lento para adoptar innovaciones, la aplicación de herramientas que faciliten la captura y el procesamiento de datos para el mejoramiento de procesos, en base a tecnología de información, puede ser una estrategia efectiva para ayudar a mejorar indicadores de productividad. Este trabajo desarrollado bajo la rama de productividad del proyecto FONDEF D06I1013: “UTILIZACIÓN DE IMÁGENES Y VIDEOS DIGITALES PARA EL MEJORAMIENTO DE LA SEGURIDAD, PRODUCTIVIDAD Y CALIDAD EN PROCESOS DE CONSTRUCCIÓN”. Presenta el diseño de metodologías computacionales que facilitan la captura, el procesamiento y análisis de información para el mejoramiento de la productividad en operaciones de construcción, utilizando videos e imágenes digitales. Se discuten los problemas y necesidades de obra que pueden ser atendidos mediante el uso de imágenes y videos digitales. Se describen las metodologías, su adaptación; las tecnologías disponibles y el diseño de los nuevos métodos que fueron incorporados en un sistema de captura, procesamiento y análisis de información a partir de videos e imágenes digitales. Finalmente se presenta un set de herramientas cuyo uso puede contribuir al mejoramiento significativo de la productividad en proyectos de construcción.
APA, Harvard, Vancouver, ISO, and other styles
6

Smith, Albornoz Felipe Eduardo. "Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocular." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136244.

Full text
Abstract:
Ingeniero Civil Eléctrico
La biometría corresponde al estudio de medidas en base a diferentes características humanas, tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados. Este trabajo de título propone como objetivo estudiar la fusión de información entre dos sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión. Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual, fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta. Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
APA, Harvard, Vancouver, ISO, and other styles
7

Contreras, Schneider Daniel Alfonso. "Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpados." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112303.

Full text
Abstract:
Ingeniero Civil Electricista
El reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto. La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas. El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada. Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
APA, Harvard, Vancouver, ISO, and other styles
8

Ticona, Huaroto Javier Eduardo. "Análisis de características de forma del bacilo de koch para detección automática de tuberculosis en imágenes digitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9242.

Full text
Abstract:
La Tuberculosis es una de las enfermedades más letales a nivel mundial. Los esfuerzos en salud pública están dirigidos a la temprana detección de los casos bacilíferos, ya que son la fuente de infección. En el mundo la detección se realiza mediante baciloscopía, que consiste en la observación de muestras de esputo para identificar y contar bacilos con la ayuda de un microscopio. Sin embargo, el procedimiento es subjetivo y consume excesivo tiempo al personal de salud. El presente estudio tiene como objetivo identificar bacilos en imágenes digitales captadas desde el microscopio. Dichas imágenes muestran bacilos y otros artefactos con el mismo color. Ambos tipos de estructura se almacenaron y etiquetaron individualmente conformando la base de datos. Se analizó el espectro de magnitudes de los descriptores de Fourier de dichas estructuras, con el fin de seleccionar los necesarios para la óptima caracterización e identificación. Mediante el método sub-óptimo de selección de características hacia atrás (backward feature selection) se determinó los 14 descriptores que mejor discriminan entre las clases. Para comprobar este método se diseño un programa que procesó las 480 estructuras de la base de datos. Dicho programa obtuvo un porcentaje de acierto de 96.86%, una sensibilidad de 100% y una especificidad de 91.47% El estudio demuestra que es posible la identificación de bacilos mediante la clasificación de descriptores de Fourier previamente seleccionados. Estos resultados sugieren que las técnicas de procesamiento de imágenes digitales tienen el potencial de agilizar el diagnóstico de Tuberculosis.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
9

Bustamante, Alvarez Rafael. "Diseño de un algoritmo para la automatización del conteo de células del tejido sanguíneo mediante procesamiento digital de imágenes." Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/10841.

Full text
Abstract:
Desarrolla el diseño de un algoritmo para el conteo de células sanguíneas, específicamente el conteo glóbulos rojos y conteo diferenciado de glóbulos blancos, mediante el Procesamiento Digital de Imágenes; basado en dos algoritmos propuestos para cada caso respectivamente. Esto, permite automatizar el conteo a través del empleo de una computadora en un tiempo más breve que el empleado por un especialista. Para realizar el proceso mencionado, la imagen es captada por una cámara instalada en un microscopio y luego transmitida a la computadora para su análisis y conteo de las células sanguíneas mediante el algoritmo desarrollado.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
10

Sumoso, Vicuña Ernie Ludwick. "Técnicas de representación y reconstrucción de objetos 3D en el computador: una revisión de literatura." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/18274.

Full text
Abstract:
Actualmente en el mundo, las tecnologías de escaneo 3D se clasifican en dos grupos: de contacto y sin contacto. El primer grupo se caracteriza por la necesidad de reposar el escáner sobre el objeto (Sreenivasa K. 2003). Este tipo de escáneres representan un riesgo cuando los objetos en cuestión no pueden ser manipulados libremente debido a su fragilidad. Por otro lado, el segundo grupo de tecnologías son mayormente usadas en investigaciones y poseen una amplia variedad de aplicaciones en la industria medicinal y de entretenimiento. Este último grupo a su vez se divide en dos sub-grupos: activos y pasivos (Pears N. 2012). Las tecnologías de escaneo 3D activos se basan en el análisis y medición del tiempo de envío y retorno de una señal hacia el objeto para estimar la posición de la superficie. Por otro lado, las técnicas de escaneo sin contacto-pasivas no necesitan de la manipulación del objeto ni medición de señales ya que aprovechan la luz ambiental. Dentro de las ciencias de la computación existe el problema de cómo sintetizar, procesar y analizar la información de una superficie obtenida mediante herramientas de escaneo 3D y guardarla en el computador con el fin de que este pueda ser visualizada y/o manipulada por otras herramientas informáticas. A lo largo de los años han surgido múltiples técnicas de representación de objetos en un espacio de tres dimensiones. Sin embargo, estas técnicas dependen fuertemente de las herramientas empleadas durante el proceso de escaneo. Es por ello que se han desarrollado también técnicas pasivas-sin contacto que permitan la obtención de superficies únicamente a partir de una colección de imágenes y haciendo uso de redes neuronales entrenadas en extensos conjuntos de datos. Para poder entender estas tecnologías emergentes es necesario investigar a profundidad cuales son los recientes métodos para generar superficies u objetos 3D, en qué casos se utilizan los distintos métodos y cuáles son los enfoques de los autores al emplear dichas técnicas.
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
11

Ayala, Charca Giancarlo. "Reconocedor óptico de caracteres de placas de automóviles empleando técnicas de procesamiento digital de imágenes." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2007. http://cybertesis.uni.edu.pe/uni/2007/ayala_cg/html/index-frames.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Azama, Makishi Alan Yoshio, and Huanca Tomás Fernando Huamán. "Detector de eventos remotos basado en técnicas de procesamiento digital de video." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2013. http://hdl.handle.net/10757/273547.

Full text
Abstract:
El tema del presente proyecto profesional trata sobre las diferentes técnicas de procesamiento digital de imágenes aplicadas a un sistema de vigilancia, con cámaras IP conectadas en red. Estas técnicas de procesamiento hacen al sistema capaz de detectar automáticamente eventos remotos, tales como la detección de movimiento o el cambio de iluminación de una escena. El desarrollo del proyecto está dividido en cinco capítulos. El primer capítulo presenta un panorama general del proyecto. El segundo capítulo explica los fundamentos teóricos utilizados. El tercer capítulo muestra el desarrollo de los algoritmos utilizados para la detección automática de eventos. El cuarto capítulo expone las características del diseño y la implementación del sistema. Finalmente, el último capítulo es para realizar un análisis de los resultados obtenidos. Al finalizar el trabajo, luego de múltiples pruebas del sistema, se llegó a la conclusión de que la detección de eventos remotos utilizando técnicas de procesamiento digital de vídeo es un método de fácil implementación y superior a muchos sistemas actuales.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
13

Concha, Ramírez Francisca Andrea. "FADRA: A CPU-GPU framework for astronomical data reduction and Analysis." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140769.

Full text
Abstract:
Magíster en Ciencias, Mención Computación
Esta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad. El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado. Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas. En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU.
Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
APA, Harvard, Vancouver, ISO, and other styles
14

Villazana, Astucuri Jordy Ivo. "Sistema de procesamiento y análisis de imágenes para la caracterización fenotípica del cultivo de la papa." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/11789.

Full text
Abstract:
La caracterización y clasificación en la papa es de gran interés para muchas empresas e instituciones públicas y privadas, debido a la gran importancia nutricional, agroeconómica en los países donde son producidos Además este tubérculo ayuda al cumplimiento de uno de los objetivos del milenio declarados por la ONU denominada “Reducción del hambre y la pobreza”. En el contexto científico e industrial de nuestro país, el proceso de caracterización fenotípica basada en descriptores morfológicos es realizado manualmente, consumiendo recursos de personal especializado, costos y tiempo. El propósito de este estudio es desarrollar un sistema de visión artificial basado en el procesamiento y análisis de imágenes de la papa, aplicada a la automatización del proceso de caracterización. El sistema fue implementado en la plataforma de Matlab R2012a, usando el paquete ‘Image Processing Toolbox’, en la etapa del preprocesamiento de imagen se aplicó el filtro de la mediana, en la etapa de segmentación se aplicó el algoritmo de k-means clustering, mientras que para la determinación de la forma se aplicó la Transformada Rápida de Fourier para obtener los Descriptores de Fourier. En la validación se usaron fotografías caracterizadas por los especialistas del Instituto Nacional de Innovación Agraria y del Centro Internacional de la Papa. En los resultados se obtuvo un nivel de precisión de 78.03% al realizar la caracterización a partir de una imagen por muestra, mientras que al analizar 3 o más fotografías el nivel de precisión aumento a 89.62%. Sumando las 56 imágenes que sirvieron como entrenamiento para calibrar y determinar los factores para la caracterización, el nivel de precisión fue de 85.8% con una imagen por muestra, mientras que con 3 o más imágenes es de 93.2%. En conclusión, el sistema propuesto en la tesis puede ser aplicado para la caracterización de la forma y es un primer paso para automatizar el proceso considerando otros descriptores morfológicos de la papa a partir de las mismas imágenes analizadas.
Universidad Nacional Mayor de San Marcos (Lima). Vicerrectorado de Investigación y Posgrado
Tesis
APA, Harvard, Vancouver, ISO, and other styles
15

Cáceres, Ramos Kevin Lee, and Felix Lendy Valerie Dongo. "Evaluación de los beneficios al aplicar BIM en una obra multifamiliar en Lima Metropolitana en el año 2018 - 2019." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/10842.

Full text
Abstract:
Analiza la aplicación de la metodología BIM en una obra de edificación multifamiliar en Lima Metropolitana, donde se evalúa los beneficios de emplear esta metodología. Para ello se realiza un comparativo entre dos obras de edificación de similares características; una que utiliza la metodología BIM en sus etapas de diseño y ejecución; y otra que se diseña y construye bajo el método tradicional.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
16

Cadena, Moreano José Augusto. "Técnica eficiente para reconocimiento facial global utilizando wavelets y máquinas de vectores de soporte en imágenes 3D." Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/16552.

Full text
Abstract:
La presente investigación se desarrolla en el marco de los sistemas de reconocimiento facial automático de imágenes, que consisten en procesar las imágenes de caras de personas utilizando métodos estadísticos y matemáticos de extracción de características y de clasificación de imágenes, para conocer si un individuo se encuentra en una determinada clase, y finalmente hallar su identidad. El tratamiento automático de una cara es complicado, debido a que se presenta varios factores que le afectan, como la posición de la cara, la expresión, la edad, la raza, el tipo de iluminación, el ruido, y objetos como lentes, sombrero, barba entre otros. El procesamiento se realiza de forma global, en donde se procesa toda la cara. Se sabe que procesar las imágenes de manera global es más rápido, práctico y fiable que las basadas en rasgos. Además, se conoce que procesar imágenes en tres dimensiones es más real y consistente que en dos dimensiones. El principal objetivo de la tesis que se propuso fue desarrollar una técnica eficiente de reconocimiento facial con rasgos globales, y con imágenes en tres dimensiones. Para ello, se seleccionó los algoritmos más eficientes para extracción de características, filtros de Gabor, y el algoritmo para clasificación, máquina de vectores de soporte (SVM). Este último algoritmo, su eficiencia varía de acuerdo a la función núcleo o kernel, por ello en esta tesis se trabajaron con tres kernel: líneal, gauseano y cúbico. Estos sistemas constan de dos procesos necesarios: 1) Entrenamiento, y 2) Pruebas. Lo que permitió establecer un modelo de reconocimiento facial global para dos y tres dimensiones respectivamente. La técnica fue procesada primero para imágenes 2D, luego para imágenes 3D. Y se utilizó el método de validación cruzada en ambos casos para aprobarlo. Los mejores resultados obtenidos con la técnica alcanzada son 96% de eficiencia con base de datos de imágenes de dos dimensiones; y 98,4% con base de datos de imágenes de tres dimensiones. Finalmente, se hace una comparación de los resultados alcanzados con otros trabajos de investigación similares, obteniéndose mayor eficiencia con este trabajo.
APA, Harvard, Vancouver, ISO, and other styles
17

Chavez, Leon Sofia Alessandra, Acevedo Jahaira Julie Daga, Huaracha Luz Andrea Quichiz, and Clavo Melanie Nicole Trebejo. "Huaytita cortometraje animado desde la perspectiva de las áreas de gráfica, animación, edición y diseño sonoro." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/16062.

Full text
Abstract:
El cortometraje animado Huaytita (2019) parte de la experiencia personal de Melanie, integrante del grupo, quien desde muy pequeña ha recibido remedios naturales por parte de su abuela. Es por ello que para la realización de este proyecto se plantea un objetivo principal y un objetivo secundario. El objetivo principal es desarrollar a través de la animación la relación abuela-nieta-medicina natural y que esto se refleje en las áreas de Gráfica, Animación, Edición y Diseño sonoro. Además, el objetivo secundario es lograr un producto audiovisual enriquecido por la imagen y el sonido, prescindiendo del uso del diálogo. Para lograr estos objetivos, planeamos los ajustes necesarios para el uso de los programas de Adobe a utilizar tanto para el área de Gráfica, Edición y Animación. Posteriormente, en base al guión empezamos a trabajar los expression sheets y paleta de colores para el diseño de los personajes;así también, trabajamos el diseño y color para los fondos desde el área de Gráfica. A la par manejamos los ajustes necesarios para la música junto al compositor así como el diseño sonoro para cada escena considerando el ambiente y objetos necesarios para la realización del foley desde el área de Sonido. Una vez digitalizados los archivos de dibujo, juntamos cada frame para crear un movimiento continuo (animación tradicional). Así también, optamos por el uso de la animación digital en el caso de la magia y otros movimientos complejos desde el área de Animación. Finalmente, juntamos todos los archivos realizados manejando el ritmo y el tiempo necesario para cada escena desde la Edición. Como resultado se obtuvo un corto animado que muestra a la medicina natural no solo como una alternativa para la cura de enfermedades sino también como un vínculo familiar y una herencia.
The animated short film Huaytita (2019) is based on the personal experience of Melanie, a member of the group, who from a very young age has received natural remedies from her grandmother. That is why for the realization of this project we propose a main objective and a secondary objective. The main objective is to develop through this animation this grandmother-granddaughter-natural medicine relationship and reflect this in the areas of Graphics, Animation, Editing and Sound. While, the secondary objective is to achieve an audiovisual product enriched by image and sound, regardless of the use of dialogue. To achieve these objectives, we plan the necessary adjustments for the use of Adobe programs to be used for Graphics, Editing and Animation area. Subsequently, based on the script we started to work on the expression sheets and color palette for the character design; also, we worked on the design and color for the backgrounds from the Graphic area. At the same time, we handle the necessary adjustments for the music next to the composer as well as the sound design for each scene considering the environment and objects necessary for the realization of the foley from the Sound area. Once the drawing files have been digitized, we put each frame together to create a continuous movement (traditional animation). Also, we opted for the use of digital animation in the case of magic and other complex movements from the Animation area. Finally, we put together all the files managing the rhythm and time needed for each scene since the Edition. As a result, a short animated fiction was obtained that shows natural medicine not only as an alternative to cure diseases but also as a family bond and inheritance.
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
18

Liberona, Henríquez Gianfranco. "Aplicaciones del procesamiento de imágenes digitales a astronomía." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/133571.

Full text
Abstract:
Ingeniero Civil Matemático
En la presente memoria se abordan a fondo los problemas de la interferometría y la síntesis de Fourier, tanto en términos teóricos como en términos prácticos, en el contexto de las aplicaciones de estas herramientas en ciencias como la astronomía, a través de proyectos como ALMA \emph(Atacama Large Milimeter Array), SKA \emph{(Square Kilometre Array)} y VLA \emph{(Very Large Array)}, que basan su funcionamiento en la radioastronomía, rama de la ciencia que utiliza la interferometría como herramienta clave de sus estudios. Todo esto se fundamenta principalmente en el Teorema de Van Cittert - Zernike, proposición que indica lo siguiente: \emph{Si se denomina $V$ a la función de visibilidades de un frente de ondas, $I$ a su intensidad y $A$ el área de recepción efectiva del instrumento utilizado para captar la señal, entonces} $$V(u,v) = \iint A(x,y) I(x,y) e^{-2\pi i(ux+vy)}\ dxdy.$$ En otras palabras, el teorema citado indica que salvo una constante correspondiente al instrumento utilizado, la función de visibilidades de una onda y su intensidad son un par transformada/antitransformada de Fourier. El problema de la síntesis de Fourier consiste en palabras simples al de la reconstrucción de la función de intensidad de una señal, a partir de información parcial de su función de visibilidad. Esta memoria aborda diferentes técnicas de resolución de este problema, que pese a ser un problema mal puesto, es posible regularizarlo para obtener soluciones aproximadas. El resultado principal de este trabajo consiste en la presentación e implementación numérica de una nueva propuesta de solución, utilizando un enfoque variacional, que busca reducir los cálculos y tiempos de computación de las técnicas utilizadas en la actualidad, tales como CLEAN (1974) y MEM (1985), además de estudiar el efecto que genera la regularización de esta solución en diferentes ámbitos que serán detallados cuando corresponda. Se presentan sus resultados y se realizan comparaciones entre distintas soluciones, dependientes de los parámetros modificados en cada ocasión. Se termina la presente memoria analizando los resultados numéricos obtenidos con diversas reconstrucciones de imágenes y se comenta posible trabajo futuro y temas aún pendientes al término de este trabajo, que pueden constituir un aporte importante al desarrollo actual de estas técnicas en astronomía y disciplinas afines como la imagenología médica, que utiliza técnicas similares a las aquí estudiadas para la obtención (por ejemplo) de resonancias magnéticas en los pacientes atendidos.
APA, Harvard, Vancouver, ISO, and other styles
19

Oncevay, Marcos Félix Arturo. "Extracción de descriptores de color y textura en imágenes digitales de plantas para la identificación de especímenes botánicos." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7838.

Full text
Abstract:
La identificación de la clasificación taxonómica de las plantas es un proceso realizado generalmente de forma manual por los especialistas botánicos en base a su experiencia. Sin embargo, la enorme variedad de especies de plantas, y la dificultad en la selección de propiedades o cualidades propias que permitan estimar una clasificación de las mismas, conforman un reto científico que se ha trasladado a un aspecto tecnológico para automatizar y apoyar dicho proceso. Por este motivo, se han propuesto diversos métodos desde los campos de reconocimiento de patrones y visión computacional para la identificación automática de las especies de plantas. Para esto, se suelen utilizar imágenes digitales de las hojas, debido a que esta es la parte de la planta que presenta una gran riqueza de atributos visuales como el color y la textura, que son objeto de esta investigación. En la investigación propuesta, se extraerán y combinaran diferentes grupos de descriptores de color y textura de las hojas en imágenes digitales escaneadas. Con dichos atributos, se entrenan algoritmos de aprendizaje de máquina para generar un modelo de clasificación que permita distinguir las especies de las plantas con una precisión aceptable según el estado del arte del problema. Para esto, se realizará un caso de estudio sobre el conjunto de imágenes de plantas: \ImageCLEF 2012", el cual posee un catálogo digital de hasta 115 especies botánicas diferentes.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
20

Grajeda, Marín Ismael Rufino. "Increase in the information payload for steganography in digital images." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2019. http://hdl.handle.net/20.500.11799/105009.

Full text
Abstract:
El presente artículo se deriva de una investigación previa realizada en la facultad de ingeniería [8], en la cual se propuso y desarrolló un algoritmo de esteganografía en imágenes digitales que permitiera mejorar en varios aspectos los métodos previamente existentes. Se desarrolló una adaptación al método denominado "diferencia de píxeles por tres vías". Con el objetivo de apoyar en la experimentación se realizó un estudio implementación del mismo, derivado de los resultados experimentales se desprendieron 3 nuevos algoritmos.
APA, Harvard, Vancouver, ISO, and other styles
21

Sáenz, Valenzuela Diego. "Clasificación de garras de pollo mediante imágenes digitales." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143136.

Full text
Abstract:
Ingeniero Civil Eléctrico
En las plantas faenadoras de pollos se busca sacar el máximo provecho a cada animal, por lo que no solo se comercializan sus partes altas en carne como lo son la pechuga y el trutro, sino que también se venden partes como alas, interiores y patas. El presente trabajo trata de la categorización de patas, ya que no todas tienen el mismo precio, sino que se dividen en categorías dependiendo de su peso y cantidad de defectos, siendo las más grandes y sanas las mejor valoradas. Actualmente, la categorización de patas de pollo se hace de forma manual, lo cual puede estar sujeto a la subjetividad de cada operador, toma bastante tiempo y, a su vez, se refleja en el balance de las empresas como un alto costo fijo por mano de obra. Dado lo anterior, se vuelve muy interesante la automatización de procesos que permitan aumentar su eficiencia en la separación por categorías. En la industria del pollo, las patas del animal son conocidas como garras y sus categorías son llamadas calibres, los que dependen del peso y cantidad de defectos de cada garra. En este trabajo de título se proponen y comparan distintas metodologías para definir el calibre de una garra a partir de dos imágenes, mostrando su parte superior e inferior. Debido a la complejidad del problema, solo se consideran garras sin fracturas o raspaduras, limitando la clasificación a garras con defectos reconocibles por su color como lo son las cutículas, callos y hematomas. Tras probar distintos métodos para clasificar las garras según sus calibres, se llega a uno que consiste en una cuantificación de defectos utilizada como entrada para un clasificador en base a rangos, el cual, con un 97.4% de exactitud, demostró ser el mejor método para definir el calibre. La cuantificación mencionada consiste en utilizar una cascada de clasificadores binarios, con las intensidades RGB de los pixeles como entrada, identificando aquellos que muestran cutícula, callo, hematoma o garra sana, para finalmente obtener la cuantificación con la suma de pixeles de cada defecto. Como conclusión se puede decir que, a pesar de las limitaciones impuestas para el desarrollo de la metodología propuesta, se han logrado los objetivos planteados en forma satisfactoria, logrando obtener un método de clasificación de garras, escalable a la industria faenadora de pollos.
APA, Harvard, Vancouver, ISO, and other styles
22

Baca, Berrío Warren. "Diseño de sistema de cálculo de tiempo de exposición aplicado a un sistema de adquisición de imágenes multiespectrales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5310.

Full text
Abstract:
La agricultura de precisión se beneficia del uso de tecnologías de información para aumentar la productividad de los cultivos y aminorar los problemas como plagas o mal uso de recursos. Dentro de estas tecnologías se encuentra el sensado remoto, que valiéndose del uso de imágenes tomadas a gran altura, permite diagnosticar el estado de una cosecha, realizar un seguimiento técnico del cultivo así como también prevenir diversos inconvenientes. La presente tesis está enmarcada en el uso de la tecnología de sensado remoto y parte de estudios previos en los que se utilizaron imágenes multiespectrales aéreas para el análisis de diversos cultivos. Esto se dio en el marco del proyecto “Agricultura de Precisión para la Producción de Cultivos de Seguridad Alimentaria y de Agro Exportación” patrocinado por el Centro Internacional de la Papa (CIP) y el Fondo Nacional de Ciencia y Tecnología. (FINCYT). En el proyecto mencionado se utilizó un par de cámaras adaptadas para la captación de imágenes en los espectros rojo e infrarrojo cercano, las cuales iban instaladas dentro de un aeromodelo que efectuaba el recorrido sobre el cultivo o plantación.Se encontró que las imágenes adquiridas tenían gran cantidad de pixeles oscuros o saturados, identificando la causa como la falta de control sobre el tiempo de exposición que utilizaban las cámaras a bordo. Este estudio presenta el desarrollo de un controlador para el tiempo de exposición de dichas cámaras haciendo uso de lógica difusa para su modelado y programación. El primer capítulo enmarca la necesidad de contar con recursos descriptivos de plantaciones aprovechando tecnología de bajo costo frente a las opciones del mercado. El segundo capítulo, describe distintas formas de adaptación de parámetros en cámaras digitales y aborda el diseño en lógica difusa como alternativa a estos métodos. El tercer capítulo, describe el diseño del controlador y los programas encargados de realizar tanto la modificación del tiempo de exposición, como la muestra de información hacia los usuarios finales. Finalmente el cuarto capítulo muestra las conclusiones y plantea recomendaciones para futuros proyectos basados en este estudio.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
23

Ascarza, Mendoza Franco Javier. "Segmentación automática de textos, mediante redes neuronales convolucionales en imágenes documentos históricos." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13050.

Full text
Abstract:
Los manuscritos históricos contienen valiosa información, en los últimos años se han realizado esfuerzos para digitalizar dicha información y ponerla al alcance de la comunidad científica y público en general a través de imágenes en bibliotecas virtuales y repositorios digitales. Sin embargo, existen documentos y manuscritos históricos escritos en un lenguaje extinto en la actualidad y una cantidad limitada de profesionales expertos en la interpretación y análisis de dichos documentos. Las imágenes de los documentos y manuscritos históricos poseen características particulares producto precisamente de su antigüedad como por ejemplo: La degradación del papel, el desvanecimiento de la tinta, la variabilidad en iluminación y textura, entre otros. Tareas como recuperación de información o traducción automática de imágenes de manuscritos históricos requieren una etapa de pre-procesamiento importante debido a las características mencionadas en el párrafo anterior. Entre las tareas de pre-procesamiento se puede mencionar la binarización y la segmentación de la imagen en regiones de interés. La presente tesis se enfoca en el procedimiento de segmentación en regiones de interés de las imágenes de manuscritos históricos. Existen métodos para segmentar imágenes de documentos históricos basados fundamentalmente en la extracción manual de características con previo conocimiento del dominio. La finalidad de la presente tesis es desarrollar un modelo general que automáticamente aprenda a extraer características de los pixeles de las imágenes de los documentos históricos y utilizar dichas características para clasificar los pixeles en las clases que previamente se definirán.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
24

Reátegui, Woll Jaime Cesar. "Estimación automática de la varianza y discriminación de distribuciones de ruido en imágenes digitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4537.

Full text
Abstract:
Existen diversos sistemas de adquisición de imágenes, algunos de ellos son: CCD (Charge Couple Devices), sistemas basados en luz coherente, MRI (Magnetic Resonance Imaging), imágenes SAR (Radar de apertura sintética), etc. En todos los casos, las imágenes generadas se encuentran afectadas en alguna medida por distintos tipos de ruido. Se han estudiado y desarrollado diversos métodos para eliminar el ruido presente, para así obtener una mejor estimación de la escena de interés. La mayoría de algoritmos de restauración de imágenes digitales asumen que la clase de ruido y sus parámetros característicos son conocidos (p.e: varianza, coeficiente de variación, etc.). En la presente tesis se desarrolla e implementa un algoritmo para la estimación automática de la varianza y discriminación de la distribución del ruido presente en una imagen digital. La metodología propuesta se encuentra dividida en dos bloques principales. El primer bloque estima la varianza del ruido presente en la imagen utilizando un método basado en el cálculo de la moda de las varianzas obtenidas a partir de ventanas locales (segmentos de la imagen). El segundo bloque transforma una distribución de ruido específica en una distribución Gaussiana con varianza unitaria utilizando transformaciones de estabilización de varianza. Estos dos bloques trabajan de manera conjunta y automática haciendo uso de diversas reglas de decisión para, finalmente, poder discriminar la distribución que presenta la imagen digital analizada. El algoritmo será implementado en el software MATLAB y será capaz de discriminar entre las siguientes cuatro tipos de ruido: aditivo Gaussiano, multiplicativo Gamma, multiplicativo Rayleigh y Poisson. Los resultados computacionales se obtendrán a partir de imágenes con ruido cuya distribución y magnitud son conocidas. Los resultados obtenidos pueden ser utilizados luego para distintos tipos de pruebas. El orden que sigue la tesis es el siguiente: En el primer capítulo se define puntualmente el problema que se busca resolver. En el segundo capítulo se cubren todos los aspectos teóricos necesarios, así como los diversos métodos, algoritmos o estudios realizados anteriormente sobre este tema. El diagrama de bloques y los detalles del algoritmo se especifican en el capítulo tres. Por último, se presentan los resultados en el capítulo cuatro seguido de las conclusiones y recomendaciones.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
25

Pérez, Reátegui Daniel Ernesto. "Programación del algoritmo POCS para mejorar la resolución de imágenes de campos de cultivo." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6449.

Full text
Abstract:
El presente trabajo de tesis surgió debido a la necesidad de obtener imágenes de campos de cultivo de alta resolución a partir de un conjunto de imágenes de baja resolución capturadas por un dispositivo óptico. La propiedad de desplazamiento sub-pixel existente entre las imágenes de baja resolución capturadas por el dispositivo óptico hace posible la obtención de imágenes digitales de alta resolución mediante la aplicación de un algoritmo de reconstrucción de imágenes. Con el fin de poder incrementar la resolución de las imágenes de campos de cultivo, de tal modo que estas puedan ser procesadas y analizadas con mayor precisión, se seleccionó y programó el algoritmo POCS (Projections Onto Convex Sets) debido a su robustez, simplicidad y flexibilidad para incorporar información conocida a priori de las imágenes deseadas al proceso de reconstrucción. El presente trabajo se desarrolla en cuatro capítulos. En el primer capítulo se presenta el concepto de Agricultura de Precisión y la necesidad de aplicar técnicas que mejoren la resolución de imágenes de campos de cultivo. En el segundo capítulo se describen los principales problemas que presentan los dispositivos ópticos para aumentar la resolución de imágenes, se presenta el modelo que describe el proceso de degradación de imágenes y se realiza un recuento de los principales algoritmos que aumentan la resolución de las mismas. En el tercer capítulo se presentan los objetivos del presente trabajo de tesis, se detalla el marco teórico del algoritmo POCS y se muestra la programación del mismo. En el cuarto capítulo se definen las métricas usadas para evaluar el algoritmo y se presentan los resultados de diversas pruebas aplicadas a las imágenes de campos de cultivo. Finalmente, se concluyó que el algoritmo POCS incrementa la resolución de imágenes de campos de cultivo de manera satisfactoria, además, se concluyó que POCS presentó mejor desempeño con respecto a los algoritmos de interpolación y de deconvolución que formaron parte de las pruebas.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
26

Meza, Zurita Fernando Javier. "Diseño e implementación de un algoritmo para el registro de imágenes aéreas ortorectificadas aplicado en la supervisión agrícola." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6143.

Full text
Abstract:
La presente tesis muestra el diseño e implementación de un sistema de registro de imágenes aéreas orientado a la agricultura de precisión. Este sistema cuenta con la particularidad que las imágenes pasarán por un pre procesamiento de corrección geométrica para mejorar la calidad del registro. Este sistema permitirá la generación de panoramas globales de los campos de cultivo con la finalidad de obtener información correctamente localizada del campo analizado. El documento está dividido en 4 capítulos y su estructura es de la siguiente manera: En el capítulo 1, se analiza la problemática de la agricultura de precisión y el sensado remoto, así como también se expone la aplicación y la problemática del uso de aeromodelos e imágenes aéreas en la agricultura de precisión. En el capítulo 2, se exponen los temas de registro y ortorectificación de imágenes como solución cuando se trabaja con imágenes aéreas orientado a la agricultura de precisión En el capítulo 3, se explican los objetivos de este proyecto y se desarrolla detalladamente el sistema diseñado. Se definen las características particulares del vuelo para la obtención de las imágenes aéreas, a partir de estas características se realiza la selección de algoritmos y se desarrolla el modelo propuesto y una explicación detallada de los pasos y algoritmos usados en este proceso. Finalmente, en el capítulo 4, se muestra la evaluación del sistema propuesto, el cual estará dividido en dos partes, en una primera instancia se evaluará únicamente la generación de mosaicos a partir de un banco de imágenes que se tendrá de referencia y posteriormente se evaluará todo el sistema completo utilizando imágenes aéreas reales adquiridas en la PUCP
Tesis
APA, Harvard, Vancouver, ISO, and other styles
27

Ramirez, Franco Tania Gabriela, and Quispe Ila Ibañez. "Adaptación de los algoritmos SIFT y LSH para la diferenciación de archivos de imágenes." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7036.

Full text
Abstract:
El almacenamiento digital de información se ha vuelto un proceso cotidiano para todo aquel que disponga de algún dispositivo electrónico. Al tratarse de un proceso tan frecuente, es muy común que se almacenen grandes cantidades de datos/información, volví ´endose ardua su administración. Esto aplica a todos los tipos de datos digitales. El presente proyecto se enfoca en los problemas de almacenamiento de archivos de imágenes, como la gran repetición de archivos, elaborando una solución que permita aminorar el problema. El objetivo del proyecto es construir una herramienta que facilite la búsqueda de archivos de imagen que contengan contenidos similares. Para lograr el objetivo, se evaluaron herramientas que permitieran manipular la información de los archivos de imagen de manera que se puedan obtener los datos necesarios para realizar un proceso de comparación. Se decidió utilizar las herramientas SIFT y LSH y se procedió a adecuarlas para su funcionamiento de acuerdo a los criterios establecidos durante la investigación. Finalmente, se pudo elaborar una solución que permite realizar la comparación de un grupo de imágenes, mostrando porcentajes de similitud entre estas para así poder saber que imágenes son similares entre sí. En el primer capítulo del presente documento se desarrolla el problema a tratar y se explican los términos que se utilizan a lo largo de todo el documento. En el siguiente capítulo se encuentran los objetivos de la tesis, así como los resultados que se pretende obtener y las herramientas que se utilizaron para la elaboración de la solución. En los capítulos siguientes, se desarrollan uno por uno los objetivos alcanzados y en el ´ ultimo capítulo se encuentran las conclusiones y comentarios sobre el trabajo realizado.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
28

Belda, García Ana María. "Técnicas de interpolación weno y su aplicación al procesamiento de imágenes." Doctoral thesis, Universitat de València, 2010. http://hdl.handle.net/10803/39090.

Full text
Abstract:
Un problema común en la teoría de aproximación es la reconstrucción de una función a partir de un conjunto de valores discretos de datos que dan información sobre la función misma. Esta información por lo general viene dada como valores puntuales o medias en celda de la función sobre un conjunto finito de puntos o celdas, respectivamente. La función es aproximada por un interpolante, es decir, por otra función cuyos valores puntuales o medias en celda coinciden con los de la función original. Este interpolante puede ser construido por interpolación lineal. En este caso la exactitud de la aproximación cerca de una singularidad está limitada y depende del orden de la singularidad, de modo que si construimos el polinomio interpolador basándonos en un stencil que cruza la singularidad obtendremos una aproximación insatisfactoria. Esto significa que aumentar el grado del polinomio producirá regiones más grandes de mala aproximación alrededor de las singularidades. Para aumentar la exactitud la solución es escoger los puntos de forma que el stencil quede dentro de la parte suave de la función, siempre que esto sea posible. Esta es la idea que hay detrás de la técnica de interpolación ENO (Esencialmente No Oscilatoria), introducida por Harten et al., que es un procedimiento no lineal con el que la región de poca exactitud queda reducida al intervalo que contiene la singularidad, siempre y cuando las singularidades estén suficientemente bien separadas. Liu et al. introdujeron una mejora sobre la técnica ENO, llamada weighted ENO (ENO ponderado), que consiste en reconstruir un polinomio que interpola los valores puntuales de la solución de una ley de conservación hiperbólica a partir de las medias en celda de la solución débil. En la interpolación WENO se asignan a cada celda todos los stencils que la contienen, y el polinomio interpolador se calcula como combinación lineal convexa de todos los polinomios correspondientes a estos stencils. La clave es asignar los pesos más convenientes a la combinación. Estos pesos deben ser elegidos de forma que en la combinación los polinomios interpoladores en los stencils que cruzan una singularidad tengan una contribución casi nula. En las regiones suaves se utiliza la información proporcionada por todas las celdas contenidas en los stencils del proceso de selección ENO, y el resultado es un mayor orden de exactitud. En este trabajo se ha integrado la técnica WENO en el entorno de multirresolución de Harten, y se ha adaptado a los contextos de medias en celda y valores puntuales. En ambos casos se proponen nuevas medidas para la suavidad de una función. Además, en el contexto de valores puntuales se propone una modificación en la definición de los pesos WENO, que mejora el orden de la aproximación en presencia de singularidades. En la definición de los pesos WENO se introduce un ε positivo para evitar que el denominador se anule y se suele tomar ε constante. En esta tesis se propone tomar ε=h2, lo que permite demostrar que si la función es suave en al menos r+1 puntos y tiene una discontinuidad dentro del stencil de 2r puntos, entonces obtenemos al menos una aproximación de orden r+1, es decir, como mínimo obtenemos el mismo orden que el interpolante ENO, y en las zonas suaves de la función el orden de la aproximación es óptimo incluso en presencia de puntos críticos en los que se anulen las dos primeras derivadas. Las técnicas de interpolación WENO se comparan, mediante diferentes experimentos numéricos, con las técnicas de interpolación lineal, ENO y ENO-SR, para poder concluir qué método proporciona la mayor exactitud en cada caso.
A common problem in approximation theory is to reconstruct a function from a discrete set of data which gives information on the function itself. This information will usually come in the form of point-values or cell-averages of the function, which is then approximated by an interpolant, that is, another function whose values at a given set of points or cell-averages are equal to those of the original one. This interpolant can be built through linear interpolation, but in this case the accuracy of the approximation in the presence of a singularity is limited by the order of the singularity, so that any stencil crossing it will result in a poor approximation. In order to improve the accuracy of the approximation we need to choose stencils that avoid crossing singularities, whenever this is possible. That is the idea behind the ENO (essentially non-oscillatory) technique, introduced by Harten et al. WENO (weighted ENO) was introduced by Liu et al. as an improvement upon ENO. The idea is to assign to each subinterval all the stencils containing it, and construct the interpolating polynomial as a linear convex combination of the corresponding polynomials. In this way we use all the information provided by the nodes contained in the candidate stencils in the ENO selection process, and this should give a higher order of accuracy in smooth regions of the function. The key point is the assignment of weights to the convex combination. In this work we have incorporated WENO to Harten's multiresolution framework, and adapted it to the context of cell-averages and point-values. Moreover, for point-values we propose a modification in the definition of the weights, producing a higher order of accuracy in the presence of singularities. We also compare the WENO technique with other interpolation techniques through numerical experimentation.
APA, Harvard, Vancouver, ISO, and other styles
29

Rojas, Gómez Renán Alfredo. "Automatic regularization parameter selection for the total variation mixed noise image restoration framework." Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4461.

Full text
Abstract:
Image restoration consists in recovering a high quality image estimate based only on observations. This is considered an ill-posed inverse problem, which implies non-unique unstable solutions. Regularization methods allow the introduction of constraints in such problems and assure a stable and unique solution. One of these methods is Total Variation, which has been broadly applied in signal processing tasks such as image denoising, image deconvolution, and image inpainting for multiple noise scenarios. Total Variation features a regularization parameter which defines the solution regularization impact, a crucial step towards its high quality level. Therefore, an optimal selection of the regularization parameter is required. Furthermore, while the classic Total Variation applies its constraint to the entire image, there are multiple scenarios in which this approach is not the most adequate. Defining different regularization levels to different image elements benefits such cases. In this work, an optimal regularization parameter selection framework for Total Variation image restoration is proposed. It covers two noise scenarios: Impulse noise and Impulse over Gaussian Additive noise. A broad study of the state of the art, which covers noise estimation algorithms, risk estimation methods, and Total Variation numerical solutions, is included. In order to approach the optimal parameter estimation problem, several adaptations are proposed in order to create a local-fashioned regularization which requires no a-priori information about the noise level. Quality and performance results, which include the work covered in two recently published articles, show the effectivity of the proposed regularization parameter selection and a great improvement over the global regularization framework, which attains a high quality reconstruction comparable with the state of the art algorithms.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
30

Cisneros, Velarde Pedro Arturo. "Detección y seguimiento de manos en videos digitales utilizando computadores y mini-computadores." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5298.

Full text
Abstract:
El problema del seguimiento de manos o hand tracking puede definirse como la capacidad de un sistema computacional de poder reconocer las manos de un individuo (usuario) y hacerles un seguimiento en todo momento. El inter´es por el estudio del movimiento de las manos se debe a dos particularidades. En primer lugar, se debe a que las manos son protagonistas en la realizaci´on de varias tareas diarias del ser humano, pues las manos son un distintivo de las diferentes actividades humanas. Las manos permite la manipulaci ´on de objetos; de lo cual se basa una gran dimensi´on de la interactividad del hombre con sus diferentes herramientas de trabajo [1]. No es de sorprender que, con el reconocimiento del movimiento de las manos, se puedan reconocer varias actividades de las personas: comer, saludar, martillar, apu˜nar, se˜nalar, etc. En segundo lugar, las manos, junto con el rostro, son los dos mayores indicadores gestuales dentro de la comunicación no verbal; lo cual indica que en las manos hay un gran despliegue de diferentes gestos, seas y apariencias, y por tanto, tengan una gran riqueza de significado comunicativo.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
31

Barrientos, De La Cruz Andersson Bill, and Tako Jenny Higa. "Técnicas matemáticas para mejorar la visualización de imágenes DICOM." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1282.

Full text
Abstract:
El desarrollo de técnicas matemáticas para mejorar la visualización de imágenes médicas DICOM, mediante segmentación y procesamiento morfológico es el principal objetivo del presente proyecto de tesis. Para lograr este fin, se recopilaron imágenes médicas de un Tomógrafo Computarizado en diferentes estudios especializados de UROTEM, Tórax y de Cerebro, los cuales fueron procesados mediante algoritmos matemáticos desarrollados en el software Matlab. En el primer capítulo se plantea el problema; la necesidad de un post procesamiento de imágenes médicas, se fundamenta la importancia de esta investigación y se identifican los objetivos a lograr, así como también, se describen los antecedentes de esta investigación. Como marco teórico, en el segundo capítulo, se explica brevemente el funcionamiento de un Tomógrafo Computarizado, la adquisición de una imagen y el desarrollo del formato DICOM como un estándar internacional para imágenes médicas. Las técnicas matemáticas se describen en el capítulo tres; segmentación de imágenes, mediante el método de N. Otsu y procesamiento morfológico, detallándose su formulación y se definen las funciones empleadas en el software Matlab basadas en estas técnicas. El desarrollo de técnicas computacionales son descritas en el capítulo cuatro, donde se presenta por cada estudio; un diagrama de bloques y el desarrollo del procedimiento del algoritmo en Matlab, Finalmente, en el capítulo cinco, se muestran las pruebas y resultados de las imágenes DICOM de cinco pacientes por estudio, identificándose las patologías de forma automática. The mathematical technics to improve the visualization of medical images DICOM, through segmentation and morphological processing is the main goal of the following thesis project. In order to achieve this purpose, we collected medical images from a computed tomography scanner in three different exams, UROTEM, Thorax, and Brain. These images were processed through the mathematical algorithms developed in the software Matlab. The first chapter presents the problem; the necessity to post processing the medical images, the importance of the investigation as a tool to help in the medical diagnosis and the identification of a pathology automatically, the identification of the objectives to accomplish, and also it describes the antecedents of medical images processing developed from different authors. As a theory, in the second chapter, explain briefly the working basis of the Computed tomography scanner, the acquisition of an image and the developing of DICOM format as an international standard for medical images. The mathematical technics, are described in the chapter three; segmentation of the images, through the Otsu method and morphological processing, explaining its formula and function in Matlab Software. The developing of the computational technics are described in chapter four , UROTEM, Thorax and Brain; a flow chart of each exam and the step by step procedure of the Matlab algorithm, which applied the segmentation and morphological processing in the images.
APA, Harvard, Vancouver, ISO, and other styles
32

Aranguren, Zapata Alejandro, and Asin Tiffany Vela. "Sistema de seguimiento de objetos mediante procesamiento digital de imágenes aplicado al control de robots autónomos." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2012. http://hdl.handle.net/10757/305116.

Full text
Abstract:
En el presente trabajo se presenta el diseño y desarrollo de un Sistema de seguimiento de objetos mediante el procesamiento digital de imágenes aplicado al control de robots autónomos. El software le permite al usuario seleccionar los colores de la marca que desea monitorear, además le permite cambiar los niveles de luminosidad con los que se presenta la imagen en pantalla. Una vez iniciado el seguimiento se procede a realizar la adquisición de imágenes mediante una cámara inalámbrica instalada en el robot para luego procesarlas y mostrar en pantalla la marca identificada y centrada. El sistema realiza el seguimiento de la marca ubicada en el objeto de interés siempre manteniéndolo a un margen máximo de un metro. El sistema está conformado por un robot autónomo capaz de realizar movimientos rotacionales y traslacionales de manera de evitar que la marca se pierda en algún momento. Además el robot cuenta con un sensor de proximidad que le permite evadir obstáculos a medida que realiza algún movimiento. El sistema de control está monitoreado por dos microcontroladores PIC 16F877A, los cuales gobiernan los actuadores del sistema (motores, servomotor, sensores), además de permitir el intercambio de información con ayuda de dos módulos XBee-PRO instalados uno en el robot y el otro en la estación base. El computador posee un software desarrollado en el entorno MATLAB potenciado con tecnología de procesamiento paralelo a través de una tarjeta de video con tecnología CUDA para optimizar el procesamiento digital de imágenes que permite realizar la identificación del objeto de interés. Por último se presenta también un sistema capaz de detectar o identificar aves en el cielo, esto con el fin de monitorear campos o pistas de aterrizaje para evitar inconvenientes o retrasos en vuelos como aplicación adicional del sistema.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
33

Valenzuela, León César Fernando. "Estudio de técnicas de compresión de imágenes astronómicas." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/115464.

Full text
Abstract:
Magíster en Ciencias de la Ingeniería, Mención Eléctrica
Esta tesis presenta un estudio acerca de la compresión, con pérdidas, de imágenes astronómicas mediante el estándar JPEG2000. La principal motivación de esta investigación surge al comparar los desempeños de compresión para diversas morfologías de imágenes, se observa que para una misma tasa de bits, el nivel de PSNR de las imágenes naturales es mayor que el de las imágenes astronómicas, es decir la compresión de dichas imágenes presenta menos pérdidas. Debido a esto, es necesario realizar ajustes sobre JPEG2000 de manera que ambos desempeños puedan equipararse. El primer enfoque utilizado se basa en la implementación de la wavelet Haar, aquella de mayor compresibilidad sobre imágenes astronómicas, en JPEG2000. Sin embargo, al realizar esta modificación se aprecia que los resultados obtenidos no son mejores a los que proporciona la versión original del estándar, con la base CDF 9/7. A partir del análisis de dependencias intraescala en el dominio Wavelet, se logra verificar que la característica que tiene mayor repercusión en el desempeño de la compresión es la presencia de estructura. Razón que explica el por qué la base CDF 9/7, a pesar de no presentar mejor compresibilidad que la base de Haar, permite alcanzar mejores niveles de compresión. Finalmente, se propone dividir las imágenes astronómicas en dos partes: "Background" y "Cartoon", esta última contiene los pixeles de mayor intensidad y al ser una señal sparse, es decir con muy pocos coeficientes distintos a cero, su alto nivel compresibilidad en base de Haar (reconstrucción perfecta con aproximadamente un 20% de coeficientes) permite soslayar la carencia de estructura. La compresión del "Cartoon"', mediante JPEG2000 con la base de Haar, entrega resultados superiores a los obtenidos por la base CDF 9/7, por lo que se puede concluir que este enfoque puede ser aprovechado en aplicaciones que puedan prescindir de la totalidad de los pixeles y que hagan énfasis en aquellos valores más significativos. La investigación presentada en esta memoria complementa los resultados encontrados en la literatura y abre una nueva línea que deberá seguir siendo explorada en el futuro.
APA, Harvard, Vancouver, ISO, and other styles
34

Maldonado, Cadenillas Rodrigo Ricardo. "Modelo convolucional para la detección de nódulos pulmonares a partir de tomografías 3D." Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14254.

Full text
Abstract:
El cáncer al pulmón se ha convertido en una de las enfermedades con mayor incidencia a nivel mundial. Sin embargo, el análisis preventivo y detección de nódulos cancerígenos generalmente se realiza de forma manual por los radiólogos, lo cual ralentiza el proceso y genera posibles errores humanos. De esta manera, se han realizado diversas investigaciones sobre este problema utilizando Deep Learning como alternativa de solución para el análisis automático de tomografías. En este trabajo, se propone una aplicación y configuración de un modelo U- net, con bloques residuales y con regiones más rápidas para la detección de nódulos en tomografías computarizadas 3D. Los resultados obtenidos arrojan un FROC del 78 %, lo cual muestra que nuestra propuesta esta´ en el camino correcto, considerando las limitaciones de hardware en la que se ejecutó.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
35

Torres, Gárate Gabriela. "Caracterización de un ecógrafo de investigación para aplicaciones en sonoelastografía." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6193.

Full text
Abstract:
En la actualidad, diversas técnicas de elastografía buscan caracterizar tejidos para obtener parámetros de visco-elasticidad y poder identificar anomalías de forma no invasiva. Esta metodología se basa en la correlación de la variación de las propiedades mecánicas de los tejidos con cambios patológicos de los mismos, lo cual permite hallar anomalías en diferentes zonas del cuerpo. Dentro de estas técnicas, la sonoelastografía involucra un conjunto de métodos basados en la excitación mecánica del tejido para obtener parámetros de elasticidad relativa o absoluta, dependiendo de la modalidad del ensayo. Esta técnica se puede implementar en escáneres ultrasónicos comerciales que tengan la capacidad de generar imágenes modo Doppler, de forma que se puedan visualizar las señales sonoelastográficas deseadas, con la adición de vibradores externos a determinada frecuencia y amplitud de vibración. En la presente investigación se desarrolla una metodología para caracterizar la implementación del método de sonoelastografía, mediante el estudio de dos parámetros de un ecógrafo de investigación. Estos dos parámetros son: la frecuencia de repetición de pulso y el número de cuadros promedio para la estimación Doppler. Mediante el análisis del comportamiento de las señales en función la relación de estos dos parámetros, se modelarán las señales obtenidas en simulaciones y experimentos. En este sentido, se caracterizó el ecógrafo de investigación mediante la definición de una relación lineal entre ambos parámetros relacionada a la periodicidad de la señal. Asimismo, se analizó el efecto de ambos parámetros, concluyendo que para menores valores de frecuencia de repetición de pulso, el sistema aumenta su sensibilidad, ya que es capaz de medir señales a bajos valores de amplitud de vibración con una variabilidad menor al 10%. No obstante, su rango de medición para esta variabilidad es muy limitado. Esta limitación de rango se reduce al aumentar el valor de frecuencia de repetición de pulso. En contraste, a mayores valores de frecuencia de repetición de pulso, la sensibilidad del sistema se reduce, no pudiendo medir amplitudes de vibración pequeñas. Los resultados obtenidos se correlacionan en simulaciones y experimentos.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
36

Quesada, Pacora Jorge Gerardo. "Separable dictionary learning for convolutional sparse coding via split updates." Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14209.

Full text
Abstract:
The increasing ubiquity of Convolutional Sparse Representation techniques for several image processing tasks (such as object recognition and classification, as well as image denoising) has recently sparked interest in the use of separable 2D dictionary filter banks (as alternatives to standard nonseparable dictionaries) for efficient Convolutional Sparse Coding (CSC) implementations. However, existing methods approximate a set of K non-separable filters via a linear combination of R (R << K) separable filters, which puts an upper bound on the latter’s quality. Furthermore, this implies the need to learn first the whole set of non-separable filters, and only then compute the separable set, which is not optimal from a computational perspective. In this context, the purpose of the present work is to propose a method to directly learn a set of K separable dictionary filters from a given image training set by drawing ideas from standard Convolutional Dictionary Learning (CDL) methods. We show that the separable filters obtained by the proposed method match the performance of an equivalent number of non-separable filters. Furthermore, the computational performance of this learning method is shown to be substantially faster than a state-of-the-art non-separable CDL method when either the image training set or the filter set are large. The method and results presented here have been published [1] at the 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP 2018). Furthermore, a preliminary approach (mentioned at the end of Chapter 2) was also published at ICASSP 2017 [2]. The structure of the document is organized as follows. Chapter 1 introduces the problem of interest and outlines the scope of this work. Chapter 2 provides the reader with a brief summary of the relevant literature in optimization, CDL and previous use of separable filters. Chapter 3 presents the details of the proposed method and some implementation highlights. Chapter 4 reports the attained computational results through several simulations. Chapter 5 summarizes the attained results and draws some final conclusions.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
37

Aguilar, Lara Pedro Alexis, and Gonzales Jhon Jobany Tueros. "Detección de defectos en telas poliéster utilizando técnicas de procesamiento de imágenes." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1290.

Full text
Abstract:
Este proyecto tiene como objetivo la implementación de algoritmos para la detección de defectos en las telas poliéster. Como sabemos, desde sus inicios la industria ha utilizado avances tecnológicos no sólo para optimizar los procesos de fabricación sino también para mejorar la calidad de los productos. Ahora, si bien, no es posible evitar las fallas que alteran la calidad de las telas poliéster, sí es posible su detección mediante una inspección visual dentro del proceso de fabricación. En el presente estudio se realizó algoritmos de procesamiento de imágenes mediante el uso de librerías del software LabView para la detección de defectos en las telas poliéster, basándonos en muestras de telas con manchas comunes (MC), manchas de aceite (MA) y puntadas erróneas (PE), las cuales nos permitieron realizar varias pruebas experimentales, utilizando un módulo de pruebas a pequeña escala el cual fue fabricado según el tamaño de las muestras de tela, con la utilización de la técnica de iluminación lateral doble, y basándonos en el análisis del histograma de la imagen original de las muestras de telas, se lograron obtener parámetros numéricos que permitieron la detección de manchas comunes, manchas de aceite y puntadas erróneas, basado en el histograma de cada imagen, el cual muestra la cantidad de píxeles (tamaño de imagen) y la intensidad que se encuentra comprendido en un rango de 0-255 (siendo 0 el valor mínimo y 255 el valor máximo), se logró parametrizar numéricamente cada rango de valores de detección para el caso de MC un rango de valores de intensidad de cada pixel, obteniendo como resultado un intervalo de detección para MC de 0-195 y para el caso de las MA obteniendo como resultado un intervalo de detección de 167-194, que ayudaron en la realización del algoritmo para cada tipo de defecto, que validaron lo planteado en un inicio en la presente investigación. This project takes the implementation of algorithms to detect faults in fabrics polyester. Now, though, it is not possible to avoid the faults that alter the quality of fabrics polyester, the detection is possible by means of a visual inspection of the product inside the manufacturing process. This study carried out algorithms of image processing through the use of libraries from LabView software for detection of defects in fabrics polyester, based on samples of fabrics with Common Stains (MC), Oil Stains (MA) and Erroneous Stitches (PE), which allowed us to carry out several experimental tests, using a module of small scale tests which was manufactured according to the size of the fabric samples , using the technique of double side lighting, and based on histogram analysis, we have managed to obtain parameters that allowed the detection of Common Stains, Oil Stains and Erroneous Stitches. In the case of common stains, was parameterized numerically every range of detection values for the case of MC a range of values of each pixel intensity, resulting in a detection interval for 0-195 MC and the case of the MA resulting in a 167-194 detection interval.
APA, Harvard, Vancouver, ISO, and other styles
38

Melgarejo, Román Lucía Alejandra. "Registro automático de imágenes digitales de campos de cultivo aplicada a la agricultura de precisión con vehículos aéreos no tripulados." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8145.

Full text
Abstract:
El presente proyecto de fin de carrera busca presentar un aporte al campo de la agricultura de precisión, el cual tiene como propósito aplicar y desarrollar nuevos mecanismos tecnológicos para optimizar las tareas involucradas en la agricultura. Una de las herramientas dentro de la agricultura de precisión es la percepción remota, con la cual se pueden obtener imágenes de los campos de cultivo a gran altura, permitiendo la identificación de características que no son fácilmente visibles cuando se está al nivel del suelo. Las imágenes capturadas mediante la percepción remota son empleadas por diversos especialistas en la interpretación de determinados índices de vegetación, cuyos resultados ayuden a facilitar y mejorar las tareas del agricultor. La captura de dichas imágenes es obtenida a través de sensores remotos colocados en satélites, aviones y actualmente, el uso de vehículos aéreos no tripulados (Unmanned Aerial Vehicle – UAV) ha sufrido un considerable incremento. Sin embargo se presentan algunos inconvenientes con respecto al procesamiento de las imágenes adquiridas por los UAVs. En primer lugar debido a la necesidad de monitoreo constante, es necesario que los UAVs sobrevuelen la zona a tratar periódicamente, generando una gran cantidad de imágenes de una misma zona a tratar en diferentes periodos de tiempo, resultando que en cada captura las imágenes de la misma zona presentan distintas características: traslación y rotación espacial (considerando un punto de referencia fijo) e iluminación. En segundo lugar, debido a la necesidad de determinación de parámetros de vegetación, temperatura, humedad, entre otros, es necesaria la obtención de imágenes con cámaras que trabajen en diferentes bandas del espectro electromagnético (bandas de color azul, rojo, verde e infrarrojo). En algunas ocasiones una sola cámara no trabaja en todas las bandas del espectro por lo que se requiere colocar más de una cámara en el UAV, con el resultado de que las imágenes capturadas de una misma zona no están alineadas espacialmente debido a la posición de las cámaras en el UAV. De este modo se hace necesario de algún método que permita la alineación de las imágenes capturadas por los UAVs, ya sea que estas provengan de diferentes puntos de vista o de diferentes sensores, para una misma zona a tratar. Al procedimiento requerido para la alineación de dos o más imágenes de un mismo objeto de interés se le conoce como registro de imágenes.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
39

Tafur, Tafur José Elvis. "Sistema en tiempo real de detección y seguimiento de objetos esféricos en videos digitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6642.

Full text
Abstract:
En la actualidad, el desarrollo de sistemas que permitan la interacción ser humano - computador es un tema que es ampliamente abordado en diversas campos. Dispositivos tales como el Iphone, Ipad, la Samsung Galaxy Tab, entre otros, poseen aplicaciones de uso sencillo e intuitivo, brindando al usuario una experiencia de mayor realismo. Algunas de las aplicaciones más exitosas se dan en el sector del entretenimiento: El XBox 360, Nintendo Wii, Play Station 3 y 4 con sus diversos accesorios (cámaras, controladores, etc.) ofrecen juegos que interactuan con el ser humano en tiempo real. En medio de este contexto y conociendo del interés que existe por la investigación y desarrollo de sistemas en visión por computador, en la presente tesis se muestra el desarrollo de un sistema que permite la interacción ser humano - computador. Este sistema permite la detección y seguimiento de un objeto esférico en tiempo real, esto a través de una interfaz en la cual el usuario puede percibir el seguimiento de una esfera y cuyos movimientos son captados por una cámara de video. El planteamiento de la solución está inspirado en el sistema Play Station Move, el cual permite el seguimiento de una esfera ubicada en un controlador de movimiento, brindando al usuario una mayor sensación de realismo y control de las acciones realizadas. No obstante, y a diferencia del sistema desarrollado por Play Station, el presente estudio no hace uso de acelerómetros para el seguimiento planteado. El sistema a desarrollar opera bajo condiciones de precisión y tiempo de procesamiento que permite una interacción aceptable con el usuario, y se centra en el desarrollo e implementación de algoritmos matemáticos (en lenguaje C) en tiempo real que permiten la detección y seguimiento del objeto esférico. Para la interfaz computador - cámara de video se utiliza una librería ya existente, previamente desarrollada en el laboratorio de DSP, la cual a su vez está basada en la librería ffmpeg.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
40

Khlebnikov, Núñez Sofía. "Caracterización de textura en imágenes digitales de hojas de plantas mediante dimensión fractal multiescala." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/11892.

Full text
Abstract:
Actualmente aún existen áreas de la Amazonía donde se puede encontrar especies de plantas que necesitan ser identificadas y estudiadas para poder conocer sus propiedades médicas, nutricionales, industriales, etc. En muchos casos, los especialistas realizan un análisis manual, confiando en sus habilidades sensoriales y experiencia, pero eso demanda tiempo y dinero. Por eso, es importante tener una herramienta efectiva que permita hacer un rápido y eficiente reconocimiento de las plantas. Con este trabajo queremos dar un aporte al área de la investigación de reconocimiento y clasificación de plantas, presentando los resultados de la caracterización de plantas a través de la textura de la hoja. El objetivo es evaluar el método Bouligand-Minkowski basado en dimensión fractal multiescala, usando imágenes digitales para la caracterización de la textura de hojas de la Amazonía del Perú´, con el fin de ayudar a mejorar su identificación y catalogación. Para lograr el objetivo de la investigación se trabajó con dos bases de datos: ImageCLEF 2012, con 101 especies de plantas y PERALD de 27 especies. La primera es la base de datos de validación y la segunda es objeto de la investigación. El paso inicial de este trabajo fue la aplicación de un pre- procesamiento de las imágenes de las plantas. Luego, las imágenes fueron divididas en cuadrados de 128 x 128 pixeles, seleccionando los 5 mejores por cada imagen. Este paso era necesario para facilitar la caracterización de la textura. Después se aplicó el método Bouligand-Minkowski a cada muestra para obtener los descriptores de la textura de la planta. Estos descriptores fueron la entrada al clasificador Multilayer Perceptron generando así un modelo de clasificación de plantas de base de datos PERALD.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
41

Villavicencio, Paz Arantxa. "Formación de imágenes para detección de cáncer de mama empleando tecnología microondas." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13542.

Full text
Abstract:
El presente trabajo consiste en la formación de imágenes que permitan detectar tempranamente los tumores mamarios. Para ello, se hará uso de un sistema de recolección de datos físico, haciendo uso de la tecnología microondas por medio de antenas y un equipo Analizador de Redes Vectoriales (VNA). Estos datos serán procesados con algoritmos computacionales para lo obtención de las imágenes. El primer capítulo presenta una descripción del marco problemático actual, donde se considera tanto la incidencia como la mortalidad por cáncer de mama en relación con la importancia de la detección temprana. Luego, se hace una mención breve sobre alguna de las tecnologías actuales que se encuentran destinadas a la imagenología de la mama, lo cual brinda una visión de en qué campos puede desenvolverse la presente investigación y los parámetros a evaluar que se contemplan para una útil formación de imágenes. Por último, con todo lo anterior se plantea la justificación y los objetivos de estas tesis. En el segundo capítulo se expone qué son las propiedades dieléctricas y cómo es que las propiedades de los componentes de una mama brindan información suficiente para la formación de imágenes en base a tecnología microondas. Además, se mencionan las distintas técnicas microondas para formación de imágenes y se logra enfatizar en las basadas en radar, ya que estas competen a la aplicación en este trabajo. Finalmente, se explica brevemente lo que son los parámetros de dispersión, datos base de información para el procesamiento que son brindados por el equipo VNA. El tercer capítulo consiste en el planteamiento de distintos puntos requeridos para el sistema final. Por un lado, se plantea el desarrollo del fantoma de pruebas que simula las propiedades eléctricas de una mama, para lo cual se emplea una técnica basada en cavidades resonantes que permite medir la permitividad de los materiales a usar. Esta medición de permitividad permite comprobar si los valores de los materiales corresponden a los esperados. Por otro lado, se describen dos sistemas para formación de imágenes basados en radar: Confocal y Holográfico. Para ello, se considera el mecanismo de sus algoritmos, los requerimientos para la recolección de pruebas experimentales y, finalmente, las pruebas de factibilidad de estos en la detección de objetos. Las imágenes obtenidas permiten comparar ambos métodos. Además, se realiza una prueba adicional de distribución espacial de antenas para el sistema holográfico, buscando distinguir la distribución con mejores resultados.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
42

Brown, Manrique Kevin. "Caracterización y clasificación automática de ríos en imágenes satelitales." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8806.

Full text
Abstract:
En los últimos años, el fenómeno conocido como cambio climático se está volviendo cada vez más notorio. Como resultado de este fenómeno, uno de los sectores que se verá más afectado será el de los recursos hídricos debido al impacto que se tendrá sobre el ciclo hidrológico y en los sistemas de gestión de agua, y a través de estos, en los sistemas socioeconómicos. Uno de los impactos conocidos es el conjunto de modificaciones en los patrones de precipitación y caudal de los ríos que afectarán a todos sus usuarios. Los caudales de ríos se forman por sedimentos que han sido y están siendo transportados por agua que fluye y por lo general se pueden clasificar en 4 formas básicas: rectos, meandros, trenzados y anastomosados. Es importante el tener reconocidos los distintos ríos y para ello no basta con conocer su localización sino además tener mapeadas las características de estos según su canal aluvial. Uno de los métodos tradicionales para caracterizar la morfología de un río (anchura, sinuosidad, características de inundación, etc.) es a través de trabajo de campo, que es costoso y demanda tiempo. Estos métodos no sólo consumen tiempo, sino que además, son extremadamente difíciles de llevar a cabo debido a que están sujetos a factores como inundaciones, mareas y tormentas que pueden hacer el lugar inaccesible y peligroso para recolectar información. El presente proyecto de fin de carrera propone una solución ante el problema de la dificultad y alto costo que supone la realización del trabajo de campo que permita caracterizar la morfología de un río. La solución planteada es una nueva técnica computacional para la caracterización automática de la morfología de los ríos, Dimensión Fractal Multi-escala, el cual aprovecha las características fractales de formación de elementos naturales como los ríos. El proyecto inicia con un proceso de limpieza de ruido a los datos de entrada que son esqueletos de ríos, para luego, por cada uno, aplicar el método de Crossing Number para obtener la multiplicidad de canal. Seguidamente, se elaborará una Curva Fractal aplicando el método de Dimensión Fractal Multiescala y de la curva obtenida se extraerán puntos de interés para generar un vector de características necesario para la clasificación. A continuación, se entrenará un clasificador empleando los vectores de características para generar un modelo predictivo. Finalmente, el modelo será evaluado mediante la clasificación de un nuevo esqueleto de río.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
43

Inafuku, Yoshida Alberto Hiroshi. "Diseño de un algoritmo de estabilizacion de video orientado a la detección de personas." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6036.

Full text
Abstract:
El presente trabajo de tesis tiene como objetivo principal el desarrollo de un algoritmo de estabilización de video robusto y eficiente frente a cambios de escala, rotación e iluminación. La estabilización de video es una etapa de pre procesamiento utilizada para eliminar o reducir el ruido que se adhiere debido a movimientos involuntarios en los videos. Su importancia radica en que procesamientos posteriores requieren de imágenes alineadas y libres de distorsión espacial. El documento está divido en cuatro capítulos descritos a continuación: En el capítulo 1 se presenta la problemática de la estabilización de videos así como las aplicaciones en diversos campos. Se explicará cómo los videos pueden ser afectados por factores ajenos a la cámara. Entre las aplicaciones se mencionarán procesamientos posteriores que requieren estabilización como paso previo y aplicaciones finales en temas de seguridad, industria y entretenimiento. En el capítulo 2 se mencionan las alternativas de solución del problema. Se presentan tanto las alternativas como sus características, ventajas y desventajas. Entre ellas se describen algunas alternativas mecánicas, que involucran equipos y sistemas sofisticados, y alternativas digitales como registro de imágenes, Structure from Motion y Geometría Epipolar. El capítulo 3 describe la metodología a emplear. Se utilizan gráficas, diagramas e imágenes para mostrar de manera sencilla cómo se piensa atacar el problema. Se describen los parámetros utilizados en cada etapa. El capítulo 4 muestra las simulaciones y los resultados del algoritmo implementado. Mediante imágenes se muestra los resultados de las etapas descritas en el capítulo anterior
Tesis
APA, Harvard, Vancouver, ISO, and other styles
44

Tupac, Yupanqui Fernández Roberto Heinz. "Rectificación geométrica de imágenes mediante el empleo de transformaciones proyectivas y un sistema de medición inercial." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5406.

Full text
Abstract:
Cuando se adquieren imágenes aéreas, estas están propensas a tener una distorsión, el cual puede deberse a motivos como a la inclinación de la cámara al momento de adquirir la imagen, el relieve del terreno, etc. Estas distorsiones son corregidas por la ortorectificación. Cuando el relieve del terreno es bastante acentuada, como el caso de ciudades, se necesitan modelos de elevación digital para poder realizar una correcta rectificación de la imagen. La presente tesis está orientada a la rectificación de imágenes obtenidas de campos agrícolas, los cuales presentan un relieve plano, por lo que los modelos de elevación digital no son necesarios para realizar una correcta rectificación. En la adquisición de imágenes la cámara estará alineada en sus 3 ejes de rotación con una unidad de medición inercial, un sistema electrónico que incorpora acelerómetros y giroscopios, los que permiten medir la posición y la orientación. De este sistema se obtendrán los ángulos de rotación de la cámara. El algoritmo a diseñarse consiste en obtener una relación entre la imagen adquirida y la posición de la cámara al adquirir la imagen, de esa relación se obtiene una matriz de transformación, a la imagen obtenida se le aplica una transformación de proyección, empleando la matriz obtenida y por último se obtiene la imagen rectificada. En la verificación de los resultados se hará uso del algoritmo SURF, con la cual se obtendrán puntos de interés de una imagen de referencia y de la imagen rectificada, luego se procederá a hacer una comparación entre la distancia euclidiana de los puntos característicos de cada imagen, para finalmente realizar una evaluación de la relación geométrica entre ambas comparaciones. La efectividad del algoritmo estará determinada por el grado de dispersión de las comparaciones realizadas.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
45

Badillo, Durán Natalia. "Diseño de un sistema mecatrónico de laboratorio para pruebas de hidrofobicidad utilizando procesamiento digital de imágenes." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13165.

Full text
Abstract:
La hidrofobicidad es la propiedad que tienen algunos elementos para repeler el agua. Esta juega un rol importante en el desarrollo de nuevos productos dentro del comercio de pinturas, insecticidas, tintes, alimentos en polvo disolventes, remedios, combustibles, vidrios automotrices, entre otros. Estudios actuales, indican que el nivel de hidrofobicidad se puede determinar al analizar el ángulo que se forma entre una superficie y la recta tangente que pasa por el punto de intersección entre la gota y la superficie. Actualmente, existen diferentes equipos comerciales para laboratorio que se utilizan para calcular el ángulo. De este modo, se determina si una superficie es impermeable o no y en qué magnitud. Usualmente, estos equipos realizan la dosificación de la gota y el análisis de forma automática. Para ello, capturan una imagen que evidencia el comportamiento de la gota en la superficie a evaluar y la analizan digitalmente de forma manual. En el presente trabajo de tesis se diseñó un sistema mecatrónico que permite realizar pruebas de hidrofobicidad utilizando un algoritmo de procesamiento de imágenes digitales a nivel laboratorio. El primer capítulo comprende el análisis del estado del arte y la definición de los conceptos necesarios para la implementación del diseño mecatrónico. El segundo capítulo, comprende el diseño conceptual de la tesis, así como los requerimientos del diseño. El tercer capítulo, presenta la realización de los cálculos mecánicos, la elaboración de planos mecánicos de ensamble y despiece de las piezas diseñadas. Así mismo, contiene el esquema electrónico y la selección de los componentes electrónicos, finalmente, el capítulo presenta el desarrollo del algoritmo del funcionamiento del sistema. El cuarto capítulo, explica el funcionamiento de la interfaz de usuario, así como las pruebas y resultados realizados por el algoritmo codificado. Finalmente, el quinto capítulo, comenta los costos finales estimados de todo el diseño mecatrónico. Como conclusiones del presente trabajo, se logró diseñar un sistema mecatrónico que permita el cálculo de hidrofobicidad de un material. Así mismo, se logró elaborar una interfaz gráfica que permita seleccionar una imagen y se logró evaluarla con un algoritmo de procesamiento de imágenes en diferentes materiales obteniendo un error máximo de 1.3% de exactitud. Finalmente, se logró proponer un diseño cuyo costo total representa el 47.6% del precio final de productos comerciales existentes en el mercado.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
46

Paredes, Zevallos Daniel Leoncio. "Multi-scale image inpainting with label selection based on local statistics." Master's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5578.

Full text
Abstract:
We proposed a novel inpainting method where we use a multi-scale approach to speed up the well-known Markov Random Field (MRF) based inpainting method. MRF based inpainting methods are slow when compared with other exemplar-based methods, because its computational complexity is O(jLj2) (L feasible solutions’ labels). Our multi-scale approach seeks to reduces the number of the L (feasible) labels by an appropiate selection of the labels using the information of the previous (low resolution) scale. For the initial label selection we use local statistics; moreover, to compensate the loss of information in low resolution levels we use features related to the original image gradient. Our computational results show that our approach is competitive, in terms reconstruction quality, when compare to the original MRF based inpainting, as well as other exemplarbased inpaiting algorithms, while being at least one order of magnitude faster than the original MRF based inpainting and competitive with exemplar-based inpaiting.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
47

Díaz, Rojas Kristians Edgardo. "Desarrollo y comparación de diversos mapas de probabilidades en 3D del cáncer de próstata a partir de imágenes de histología." Master's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5008.

Full text
Abstract:
Understanding the spatial distribution of prostate cancer and how it changes according to prostate specific antigen (PSA) values, Gleason score, and other clinical parameters may help comprehend the disease and increase the overall success rate of biopsies. This work aims to build 3D spatial distributions of prostate cancer and examine the extent and location of cancer as a function of independent clinical parameters. The border of the gland and cancerous regions from whole-mount histopathological images are used to reconstruct 3D models showing the localization of tumor. This process utilizes color segmentation and interpolation based on mathematical morphological distance. 58 glands are deformed into one prostate atlas using a combination of rigid, a ne, and b-spline deformable registration techniques. Spatial distribution is developed by counting the number of occurrences in a given position in 3D space from each registered prostate cancer. Finally a di erence between proportions is used to compare di erent spatial distributions. Results show that prostate cancer has a significant di erence (SD) in the right zone of the prostate between populations with PSA greater and less than 5 ng=ml. Age does not have any impact in the spatial distribution of the disease. Positive and negative capsule-penetrated cases show a SD in the right posterior zone. There is SD in almost all the glands between cases with tumors larger and smaller than 10% of the whole prostate. A larger database is needed to improve the statistical validity of the test. Finally, information from whole-mount histopathological images could provide better insight into prostate cancer.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
48

Vilchez, Lagos Neils Edison. "Diseño e implementación de un dispositivo de adquisición de imágenes para el PUCP-SAT1." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2014. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7108.

Full text
Abstract:
En la actualidad el uso de los satélites es variado y destacan las misiones comerciales, científicas y militares. Estos se utilizan en el campo de las telecomunicaciones, en los sistemas de posicionamiento global, en la teledetección, en el campo de la meteorología, en el estudio de la radiación, en la exploración del espacio y muchas más aplicaciones. Encontramos satélites cada vez más pequeños como los nano y pico-satélites que permiten, a pequeñas empresas y universidades de todo el mundo desarrollar tecnología espacial en los sistemas de energía, de control, de comunicación, diseño estructural, cargas útiles, entre otros como por ejemplo un sistema de adquisición de imágenes. La Pontificia Universidad Católica del Perú (PUCP) desarrolla su propia tecnología espacial al elaborar el nano-satélite PUCP-SAT-1, el femto-satélite POCKET-PUCP y otros satélites futuros. La presente tesis tiene como objetivo principal el diseño e implementación de un prototipo de un sistema de adquisición de imágenes, cuyo volumen debe ser menor al de un octavo del volumen de un CubeSat. Para el desarrollo del sistema se llevará a cabo el análisis del hardware más adecuado para el satélite considerando el entorno de su órbita. Se diseñará e implementará el hardware y software necesarios para lograr la captura de imágenes y almacenarlas en una memoria flash.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
49

Bastías, Grunwald Diego. "Estudio de la representación 3D de regiones del iris a partir de imágenes digitales bidimensionales." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143611.

Full text
Abstract:
Ingeniero Civil Eléctrico
Actualmente se utilizan diversos métodos de reconocimiento de individuos mediante la biometría, es decir, identificando patrones de características físicas o de comportamiento. Específicamente la biometría basada en el iris es ampliamente usada en el mundo, por ejemplo en reconocimiento de ciudadanos o control fronterizo. Sin embargo, hoy en día se utilizan imágenes bidimensionales del iris para extraer la información de éste. En este trabajo se propone utilizar información tridimensional del iris, para lo que se construirá un modelo 3D a partir de un conjunto de imágenes bidimensionales del ojo. En primer lugar, se realizó la construcción de un sistema de captura de imágenes bidimensionales del ojo desde diferentes ángulos, utilizando como hardware del sistema un computador, un computador de placa reducida Raspberry Pi y una cámara Raspberry Pi NoIR. Además, se diseñó e implementó una estructura de soporte que permite la toma de imágenes desde diferentes ángulos, con una iluminación y encuadre adecuados para enfocar el iris a corta distancia. El montaje experimental permitió además eliminar el reflejo de las fuentes luminosas sobre el iris. Luego se tomaron 17 imágenes de un ojo, abarcando un arco de encuadre de 40°. A continuación se procesaron las imágenes capturadas para permitir la generación de modelos 3D. Se incluyó en el procesamiento: encuadre del iris, borrado de la pupila, ecualización del histograma y suavizado gaussiano. Fue posible determinar que la mejor secuencia para la construcción del modelo 3D incluyó encuadre, suavizado gaussiano, borrado de pupila y ecualización. Finalmente, se construyeron los modelos tridimensionales utilizando el software Python Photogrametry Toolbox. Con el objetivo de mejorar los resultados se variaron parámetros de entrada del algoritmo, tales como, el número de imágenes y el CCD width (ancho del sensor de la cámara). De lo que se concluyó que con 6 imágenes y un CCD width igual a 3, se obtiene un modelo del iris bien formado en el que se aprecian texturas y patrones. Por otra parte, se analizó la capacidad de generalización del método, capturando y modelando 12 nuevos conjuntos de imágenes del iris. Concluyendo que el método funciona de forma parcial con conjuntos de imágenes nuevos, y por tanto debe ser mejorado en términos de su capacidad de generalización. En base a la revisión bibliográfica se concluye que este es el primer sistema desarrollado que permite generar un modelo 3D del iris a partir de imágenes 2D de este. Los modelos resultantes pueden ser mejorados, ya que presentan ruido y este podría ser eliminado mediante la aplicación de un filtro gaussiano tridimensional, la utilización de un equipo fotográfico de mejores características, o el uso de múltiples cámaras.
APA, Harvard, Vancouver, ISO, and other styles
50

Velásquez, Rodríguez José Luis. "Diseño de un algoritmo para el análisis de carreteras basado en procesamiento de imágenes." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2009. http://tesis.pucp.edu.pe/repositorio/handle/123456789/724.

Full text
Abstract:
El presente trabajo nace de la idea de intentar solucionar la problemática de los accidentes de tránsito en carreteras, especialmente de los buses interprovi ncia les. La idea es situar una cámara de video en la parte superior del vehículo y mediante el algoritmo desarrollado, determinar si el bus está en su carril o si se está desviando. Se plantea el reconocimiento y análisis de las líneas de las carreteras mediante el procesamiento de imágenes. Con el objetivo de implementar un sistema de análisis completo y aprovechando las capacidades del procesamiento de imágenes, se ha planteado reconocer las líneas y distinguirlas de acuerdo a sus características. Considerando las líneas de la pista en zona de carretera, se tienen cuatro tipos: Línea blanca continua: indica los límites de la pista. Línea amarilla continua: indica pista de doble sentido, lo cual significa que no se puede cambiar de carril. Línea blanca segmentada o discontinua: significa división de carriles y tránsito en la misma dirección. Línea amarilla segmentada o discontinua: significa que la pista es de doble sentido, sin embargo está permitido el cambio de carril. Para el presente trabajo de investigació..n, se consideran tres tipos de líneas: Líneas continuas (blancas o amarillas), líneas discontinuas blancas y líneas discontinuas amarillas. Entonces al reconocer alguna línea, se analizará para saber qué tipo es y finalmente el sistema marcará las líneas para indicar los bordes de los carriles sobre la carretera. El desarrollo del algoritmo se dividió en tres partes: segmentación de todos los objetos que contrastan con el color del pavimento, identificación de las líneas y clasificación de las líneas encontradas. En la segmentación de los objetos se utilizó primero Umbralización automática. Este proceso reconocía la tonalidad de gris que marcaba la diferencia entre la tonalidad del pavimento y la de las líneas. Sin embargo, usando este método no se obtuvo los resultados esperados debido a la presencia de líneas con distintas tonalidades. Entonces se usó un filtro detector de contrastes de tal manera que con esto sólo se tiene una idea dónde pueden estar las líneas. Luego se usa esto como máscara y se hace una umbralización automática en cada región independiente hallada en el filtro. La identificación de las líneas fue un proceso más empírico. Ya que primero se obtuvieron los datos de los objetos: área, longitud, ancho, ángulo y centro de gravedad (centroide). Luego se estableció un rango de valores - hallado experimentalmente- de cada parámetro que mediante comparaciones, se concluía si es que se trataba de una línea. En esta parte se tuvo que hacer muchos ajustes luego de las pruebas. Puesto que en un principio se trabajó con líneas casi ideales y el rango fue muy reducido. En la clasificación de las líneas, también se uso un método similar al anterior: basado en comparaciones. Aunque en esta parte fue necesario tener mayores consideraciones para el desarrollo del algoritmo. Se tuvo que considerar el tema de la perspectiva para saber obtener mediciones más exactas con relación a la realidad. Finalmente un sistema de ayuda o asistencia al conductor para buses interprovinciales, tendría como base e.ste algoritmo de análisis desarrollado. Sin embargo faltaría establecer el sistema de control que recibiría las señales del algoritmo de reconocimiento y emitiría las salidas hacia los actuadores ya sea de manera pasiva (algún tipo de sonido o luz) o activa (control del volante o de los frenos). De tal manera que el bus pueda ser más seguro ante errores del chofer.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography